pte20241016001 Technologie/Digitalisierung, Politik/Recht

Regulierung von KI kann kontraproduktiv sein

Missbrauch muss laut Wissenschaftlern der Princeton University auf andere Art verhindert werden


KI-Auge: Regulierung hilft nur bedingt gegen Missbrauch (Bild: Brian Penny, pixabay.com)
KI-Auge: Regulierung hilft nur bedingt gegen Missbrauch (Bild: Brian Penny, pixabay.com)

Princeton (pte001/16.10.2024/06:00)

Forscher führender US-Hochschulen wie der Princeton University stehen einer Regulierung Künstlicher Intelligenz (KI) zum Schutz vor Missbrauch kritisch gegenüber. Denn Einschränkungen dieser Art würden mehr schaden als nützen. Auch hätten es zum Besipiel Ingenieure schwerer, Modelle zu verbessern. Aber auch sehen die Experten die Gefahr, dass die Konzentration der Macht in den Händen einiger weniger Einzelpersonen und Unternehmen liegen würde, die den KI-Zugang kontrollieren.

Eher User-Abwehrkräfte stärken

Princeton-Forscher Arvind Narayanan und sein Doktorand Sayash Kapoor haben sich ausführlich mit den Gefahren befasst, die durch den Missbrauch von KI-Systemen in Bereichen wie Desinformation, Hacking, Bioterrorismus und der Erstellung gefälschter Bilder entstehen. Sie bewerteten jedes Risiko und dachten darüber nach, ob es wirksamere Möglichkeiten gibt, diese zu bekämpfen, als den Zugang zu KI-Modellen einzuschränken.

Um beispielsweise per KI generierte Texte für E-Mail-Betrügereien, das sogenannte "Spear-Phishing", zu entschärfen sei es wirksamer ist, die Abwehrkräfte der Nutzer zu stärken, als KI einzuschränken. Die schnelle KI-Entwicklung hat in den vergangenen Jahren zu Forderungen nach einer Regulierung der Technologie geführt, darunter auch zu Schritten des Weißen Hauses und der EU. Dabei geht es um die Konstruktion von Computercodes und Daten, aus denen die heutigen primären KI-Systeme wie GPT-4 und Llama 2 bestehen. Diese Systeme schreiben Berichte, erstellen Grafiken und führen eine Vielzahl an Aufgaben aus - auch solche, die anderen schaden können.

Geschlossene Systeme gefährdet

Ein wesentlicher Unterschied zwischen den KI-Modellen besteht darin, wie sie veröffentlicht werden. Sogenannte offene Modelle stehen der Öffentlichkeit vollständig zur Einsicht zur Verfügung, geschlossene Modelle dagegen nur ihren Entwicklern. Eine dritte Art sind Hybride, bei denen Teile der Modelle geheimgehalten werden und andere Teile öffentlich zugänglich sind. Obwohl diese Unterscheidung technisch anmutet, kann sie für die Regulierung von entscheidender Bedeutung sein.

Für die Experten hängen die größten Bedenken hinsichtlich der KI-Modelle damit zusammen, wie die Modelle für böswillige Zwecke missbraucht werden könnten. Eine Möglichkeit, Missbrauch zu bekämpfen, bestehe darin, Anpassungen zu erschweren, indem der Zugriff auf die KI-Modelle eingeschränkt wird. Regulierungsbehörden könnten dies tun, indem sie Entwickler dazu verpflichten, den Zugriff von außen zu blockieren und diese im Missbrauchsfall mitverantwortlich zu machen.

Den Wissenschaftlern nach belegen die verfügbaren Beweise nicht, dass offene Modelle riskanter seien als geschlossene oder Informationen, die bereits durch Standard-Recherchetechniken wie Online-Suchen verfügbar sind. Selbst geschlossene Modelle könnten unterwandert werden, resümieren die Experten.

(Ende)
Aussender: pressetext.redaktion
Ansprechpartner: Wolfgang Kempkens
Tel.: +43-1-81140-300
E-Mail: kempkens@pressetext.com
Website: www.pressetext.com
|