KI-Schwärme als Bedrohung für demokratische Prozesse
Forscher warnen vor KI-Schwärmen, die synthetischen Konsens erzeugen und Desinformation verbreiten. Erfahren Sie mehr über die Risiken und Gegenmaßnahmen.
Forscher warnen vor KI-Schwärmen, die synthetischen Konsens erzeugen und Desinformation verbreiten. Erfahren Sie mehr über die Risiken und Gegenmaßnahmen.
© RusPhotoBank
Ein internationales Forscherteam warnt vor einer neuen Gefahr: sogenannten "KI-Schwärmen", die den Eindruck einer breiten öffentlichen Meinung erzeugen können. In einer Veröffentlichung im Fachmagazin Science weisen die Wissenschaftler darauf hin, dass die Kombination von großen Sprachmodellen mit Multi-Agenten-Systemen koordinierte Netzwerke aus KI-Personas ermöglicht. Diese Personas verhalten sich wie echte Nutzer und können digitale Umgebungen subtil beeinflussen.
Im Gegensatz zu primitiven Bots der Vergangenheit können moderne KI-Agenten konsistente "Persönlichkeiten" beibehalten, sich an frühere Interaktionen erinnern und ihren Kommunikationsstil an die Reaktionen des Publikums anpassen. Solche digitalen Profile können synchron agieren, dieselbe Agenda fördern und dabei unabhängige Standpunkte imitieren. Das erzeugt einen "synthetischen Konsens"-Effekt, bei dem künstlich generierte Aktivität als breite öffentliche Unterstützung für eine bestimmte Position wahrgenommen wird.
Die Forscher argumentieren, dass diese Mechanismen eine ernste Bedrohung für demokratische Prozesse und den öffentlichen Dialog darstellen. Ein einzelner böswilliger Akteur kann mit KI Tausende Stimmen imitieren und so Trends beeinflussen, öffentliche Personen unter Druck setzen und Desinformation verbreiten. Darüber hinaus kann die Massenproduktion künstlicher Inhalte Trainingsdaten für andere KI-Systeme verzerren und Manipulationseffekte verstärken.
Experten betonen, dass traditionelle Moderation einzelner Beiträge gegen solche Netzwerke unwirksam ist. Stattdessen fordern sie die Erkennung statistisch anomaler Koordination, die Nachverfolgung von Inhaltsursprüngen und die Anwendung verhaltenswissenschaftlicher Methoden zur Analyse kollektiver KI-Agenten-Aktionen. Zu den vorgeschlagenen Maßnahmen gehören die Implementierung datenschutzfreundlicher Verifizierungsmechanismen, die Schaffung eines verteilten Systems zur Überwachung von KI-Einflüssen und die Reduzierung finanzieller Anreize für nicht authentische Online-Aktivitäten.