Schlau ohne Moral?
Autonome Systeme lernen durch Training, ethische Standards sollen dabei Fehlentwicklungen vorbeugen
Wien (pts032/27.06.2019/12:00) Ist Ihnen bewusst, dass Sie Künstliche Intelligenzen trainieren? Nein? Dabei tun Sie das laufend! Jedes Mal nämlich, wenn Sie auf einer von Googles Captcha-Abfragen Straßenschilder, Pkws oder Busse identifizieren. Damit geben Sie sich nämlich nicht nur als Mensch zu erkennen, Sie trainieren damit auch eine Künstliche Intelligenz (KI) für selbstfahrende Autos, bringen also einem neuronalen Netzwerk bei, Objekte im Verkehr zu unterscheiden.
"Das Bereitstellen einer KI-Lösung ist nicht das Problem", erklärt Dr. Clara Neppel, Senior Director in der Europazentrale des Verbandes der Elektro- und Informationstechnik-Ingenieure IEEE in Wien. Egal, ob es um Deep Learning für Spracherkennungssysteme, Chat-Bots oder selbstfahrende Autos geht. "Der tatsächliche Aufwand liegt darin, sie auf eine Anwendung hin zu trainieren", erklärt Neppel. Und das übernehmen freiwillig und gerne eben auch Millionen von Internetnutzern rund um den Globus.
Dass das auch gründlich schiefgehen kann, zeigen Beispiele wie Microsofts Chat-Bot "Tay". Die lernfähige Software sollte durch Interaktion mit Nutzern auf Twitter lernen, entwickelte sich aber - als Folge entsprechender Inputs - binnen Stunden zu einem rassistischen und sexistischen Albtraum, den die Verantwortlichen schließlich vom Netz nehmen mussten.
Bei derartigen Anwendungen handelt es sich nicht um tatsächliche Intelligenz, sondern um autonome, also selbstlernende Systeme. Ereignisse wie jene mit "Tay", aber auch die potentielle Gefährdung von Menschen durch selbstfahrende Autos oder Entwicklungen wie die in China eingesetzten Social Scores, werfen Fragen nach ethischen Richtlinien für den Entwurf und Einsatz der entsprechenden technischen Lösungen auf.
Ethik schon im Entwurf
IEEE beschäftigt sich mit der Entwicklung entsprechender Standards für automatische Systeme. "Unter dem Begriff 'Ethically Aligned Design' berücksichtigen wir die ethische Dimension schon beim Entwurf. Unser Expertenpool aus rund 3.000 Expertinnen und Experten speist sich aus unterschiedlichsten Disziplinen - Techniker und Philosophen zählen ebenso dazu wie Ethiker und Politiker", erklärt Clara Neppel. Zum Thema wurde bereits ein Set an Standards initiiert, erste Veröffentlichungen sind für Anfang 2020 geplant. Darüber hinaus wird auch ein entsprechendes Zertifizierungsprogramm entwickelt, das sich unter anderem mit der Frage der Transparenz beschäftigt.
Viele Chancen durch smarte Technologie
Mit Ethik und Künstlicher Intelligenz beschäftigt sich auch Christopher Frauenberger von der Research Group of Human Computer Interaction der TU Wien. In seiner Keynote beim 3. IoT-Fachkongress am 23. Oktober 2019 wird er auf die Akzeptanz smarter Technologien in der Gesellschaft eingehen. Er ist davon überzeugt, dass für eine hohe Akzeptanz neuer technologischer KI-Entwicklungen Menschen die Möglichkeit haben müssen, "bei der Gestaltung von Technologie mitreden zu können", denn: ""Menschen haben immer das Recht und Bedürfnis, ihre Lebensumstände mitzubestimmen". Durch das Internet der Dinge wird der Verhandlungsraum verschoben. Doch genau diese Räume müssen offenbleiben", so Frauenberger abschließend.
3. IoT-Fachkongress 2019
Datum: 23.10.2019, 9 bis 20 Uhr
Ort: Austrian Standards, Heinestraße 38, 1020 Wien, Österreich
Information und Anmeldung: https://www.austrian-standards.at/iot
Aussender: | Austrian Standards International - Standardisierung und Innovation |
Ansprechpartner: | Mag. Cornelia Mayer |
Tel.: | +43 1 213 00 707 |
E-Mail: | c.mayer@austrian-standards.at |
Website: | www.austrian-standards.at |