KI bereitet Presse und Mediennutzern Sorgen
Irreführende Inhalte lassen sich laut neuer Erhebung der RMIT University oft nicht erkennen
![]() |
Zeitung: Medien sind nicht gegen Fake News gefeit (Foto: Kostas Sidiropoulos, pixabay.com) |
Melbourne (pte001/20.02.2025/06:00)
Journalisten und Mediennutzer sind zunehmend besorgt über den vermehrten Gebrauch von Künstlicher Intelligenz (KI) zur Erstellung von Texten, Bildern und Videos, wie T.J. Thomson von der RMIT University erhoben hat. "Die Sorge, dass KI zur Verbreitung irreführender oder täuschender Inhalte eingesetzt wird, steht ganz oben auf der Liste der Herausforderungen für Journalisten und Leser, Hörer oder Nutzer von Fernsehen und Video", sagt er.
Presse oft schlecht gerüstet
Der Experte und sein Team haben Forschungsergebnisse aus drei Jahren ausgewertet. "Wir haben festgestellt, dass Journalisten schlecht gerüstet sind, um KI-generierte oder bearbeitete Inhalte zu identifizieren, sodass sie Gefahr laufen, diese Inhalte unwissentlich an ihr Publikum weiterzugeben." Das liege zum Teil daran, dass nur wenige Redaktionen über systematische Verfahren zur Überprüfung von nutzergeneriertem oder von der Community beigesteuertem Bildmaterial verfügen.
Den meisten befragten Journalisten war nicht bewusst, in welchem Umfang KI zunehmend und oft in Kameras sowie Bild- und Videobearbeitungs-Software integriert ist. "KI wird manchmal eingesetzt, ohne dass die Journalisten oder Nachrichtenagenturen es überhaupt bemerken", so Thompson. Zudem hat jeder vierte Mediennutzer in einer Befragung angegeben, bereits KI-generierte Beiträge in den Medien bemerkt zu haben. Die Hälfte dagegen war unsicher.
Skepsis bei News-Avataren
"Dies deutet auf einen potenziellen Mangel an Transparenz seitens der Nachrichtenorganisationen bei der Nutzung generativer KI oder auf einen Mangel an Vertrauen zwischen Nachrichtenagenturen und Publikum hin. Die meisten unserer Teilnehmer hatten kein Problem damit, KI zur Erstellung von Symbolen für eine Infografik einzusetzen, aber sie fühlten sich unwohl bei dem Gedanken, dass beispielsweise ein KI-Avatar Nachrichten präsentiert", verdeutlicht Thomson.
Dass KI Vorurteile gegenüber Frauen und Nicht-Weißen habe, sei bekannt. Bei KI-generiertem Material kämen jedoch auch weniger bekannte Vorurteile zum Vorschein, wie die Bevorzugung städtischer gegenüber nicht-städtischer Umgebungen, die seltenere Darstellung von Frauen in spezialisierteren Rollen und die Ignorierung von Menschen mit Behinderungen. "Diese Vorurteile existieren aufgrund menschlicher Vorurteile, die beim Training der Software übernommen werden", meint Thomson.
(Ende)Aussender: | pressetext.redaktion |
Ansprechpartner: | Wolfgang Kempkens |
Tel.: | +43-1-81140-300 |
E-Mail: | kempkens@pressetext.com |
Website: | www.pressetext.com |