Sztuczna inteligencja tworzy iluzję powszechnej opinii publicznej
Międzynarodowi naukowcy ostrzegają przed rojami AI, które mogą wpływać na procesy demokratyczne i dialog publiczny poprzez tworzenie syntetycznego konsensusu.
Międzynarodowi naukowcy ostrzegają przed rojami AI, które mogą wpływać na procesy demokratyczne i dialog publiczny poprzez tworzenie syntetycznego konsensusu.
© RusPhotoBank
Miedzynarodowy zespół naukowców ostrzega przed nowym zagrożeniem – tzw. "rojami sztucznej inteligencji", które mogą tworzyć iluzję powszechnej opinii publicznej. W publikacji w czasopiśmie Science badacze zwracają uwagę, że połączenie dużych modeli językowych z systemami wieloagentowymi umożliwia koordynowanie sieci osobowości AI. Te osobowości zachowują się jak prawdziwi użytkownicy i mogą subtelnie wpływać na środowiska cyfrowe.
W przeciwieństwie do prymitywnych botów z przeszłości, współczesne agenty AI potrafią utrzymywać spójne "osobowości", pamiętać poprzednie interakcje i dostosowywać styl komunikacji do reakcji odbiorców. Takie cyfrowe profile mogą działać synchronicznie, promując tę samą agendę, jednocześnie naśladując niezależne punkty widzenia. To tworzy efekt "syntetycznego konsensusu", gdzie sztucznie generowana aktywność jest postrzegana jako szerokie poparcie publiczne dla określonej pozycji.
Badacze twierdzą, że te mechanizmy stanowią poważne zagrożenie dla procesów demokratycznych i dialogu publicznego. Jeden złośliwy aktor wykorzystujący AI może podszywać się pod tysiące głosów, wpływając na trendy, wywierając presję na osoby publiczne i rozprzestrzeniając dezinformację. Co więcej, masowa produkcja sztucznych treści może zniekształcać dane treningowe dla innych systemów AI, wzmacniając efekty manipulacji.
Eksperci podkreślają, że tradycyjna moderacja pojedynczych postów jest nieskuteczna wobec takich sieci. Zamiast tego wzywają do wykrywania statystycznie anomalnej koordynacji, śledzenia pochodzenia treści oraz stosowania metod nauk behawioralnych do analizy zbiorowych działań agentów AI. Proponowane środki obejmują wdrożenie mechanizmów weryfikacji chroniących prywatność, stworzenie rozproszonego systemu monitorowania wpływu AI oraz zmniejszenie zachęt finansowych dla nieszczerej aktywności online.