AI-swarms vormen bedreiging voor democratische processen

Danny Weber

20:31 16-02-2026

© RusPhotoBank

Wetenschappers waarschuwen voor AI-swarms die een synthetische consensus creëren en de publieke opinie manipuleren. Lees over de risico's en voorgestelde maatregelen.

Een internationaal team van wetenschappers heeft alarm geslagen over een nieuwe dreiging: zogenaamde 'AI-swarms' die de illusie kunnen wekken van een breed gedragen publieke opinie. In een publicatie in het tijdschrift Science merken de onderzoekers op dat het combineren van grote taalmodellen met multi-agent systemen gecoördineerde netwerken van AI-persona's mogelijk maakt. Deze persona's gedragen zich als echte gebruikers en kunnen digitale omgevingen subtiel beïnvloeden.

In tegenstelling tot de primitieve bots van vroeger kunnen moderne AI-agents consistente 'persoonlijkheden' behouden, eerdere interacties onthouden en hun communicatiestijl aanpassen op basis van publieksreacties. Dergelijke digitale profielen kunnen synchroon opereren, waarbij ze dezelfde agenda promoten terwijl ze onafhankelijke standpunten nabootsen. Dit creëert een 'synthetische consensus'-effect, waarbij kunstmatig gegenereerde activiteit wordt waargenomen als brede publieke steun voor een bepaalde positie.

De onderzoekers beargumenteren dat deze mechanismen een serieuze bedreiging vormen voor democratische processen en publieke dialoog. Een enkele kwaadwillende actor die AI gebruikt, kan duizenden stemmen imiteren, trends beïnvloeden, druk uitoefenen op publieke figuren en desinformatie verspreiden. Bovendien kan de massaproductie van kunstmatige inhoud trainingsdata voor andere AI-systemen vervormen, wat de manipulatie-effecten versterkt.

Experts benadrukken dat traditionele moderatie van individuele berichten niet effectief is tegen dergelijke netwerken. In plaats daarvan pleiten ze voor het detecteren van statistisch afwijkende coördinatie, het traceren van contentoorsprong en het toepassen van gedragswetenschappelijke methoden om collectieve AI-agentacties te analyseren. Voorgestelde maatregelen omvatten het implementeren van privacybeschermende verificatiemechanismen, het creëren van een gedistribueerd systeem voor het monitoren van AI-invloed, en het verminderen van financiële prikkels voor onechte online activiteit.