Згідно з новим дослідженням, лише 10 “суперпоширювачів” відповідали за більш ніж третину дезінформації, розміщеної на Twitter (зараз X) протягом восьми місяців у 2020 році.
Дезінформація стала серйозною проблемою останніми роками. На перший погляд, такий контент може здаватися просто дратівливим, але він також може мати значні негативні наслідки. Зокрема, дезінформація може посіяти недовіру до демократичних інститутів або навіть підірвати віру в системи охорони здоров’я.
Напад на Капітолій США 6 січня 2021 року є крайнім прикладом того, як дезінформація може призвести до насильницьких політичних заворушень, а подібна конспіративна інформація серйозно перешкоджала заходам щодо боротьби з COVID-19 під час пандемії.
Дослідники вже деякий час усвідомлюють, що деякі особи в соціальних мережах краще поширюють дезінформацію, ніж інші. Так звані “суперпоширювачі” — користувачі, які постійно поширюють непропорційно велику кількість некредитоспроможного контенту, — можливо, відповідальні за більшу частину проблеми.
Дослідження впливу дезінформації на вибори в США 2016 року показало, що 0,1 відсотка користувачів Twitter відповідали за поширення 80 відсотків ненадійного контенту, що циркулював тоді.
Під час пандемії аналіз поширення некредитоспроможної інформації про COVID-19 показав, що популярні сторінки та акаунти, верифіковані Facebook та Twitter, активно поширювали цей контент. Ще більш тривожним є те, що у 2021 році Центр боротьби з цифровою ненавистю виявив 12 акаунтів, які відповідали за поширення майже двох третин анти-вакцинних заяв у соціальних мережах.
У відповідь на зростання дезінформації соціальні мережі піддаються все більшому тиску, щоб посилити свої зусилля з боротьби з нею. Але як ідентифікувати суперпоширювачів, особливо коли існуючі дослідження використовували різні методи для їх виявлення?
Саме це надихнуло останнє дослідження, проведене дослідниками з Обсерваторії соціальних медіа Індіанського університету та факультету комп’ютерних наук Університету Ексетера у Великобританії. Команда проаналізувала 2 397 388 твітів з некредитоспроможним контентом, опублікованих 448 103 користувачами з січня по жовтень 2020 року.
Згідно з їхнім аналізом, понад третину цих постів зробили лише 10 акаунтів, а лише 1 000 користувачів відповідали за 70 відсотків. Ці суперпоширювачі переважно належать до анонімних “гіперпартійних” акаунтів, а також до високопрофільних політичних коментаторів та стратегів. Серед них були офіційні акаунти як Демократичної, так і Республіканської партій, а також акаунт @DonaldJTrumpJr, що належить сину колишнього президента Трампа та політичному раднику.
Варто зазначити, що багато з цих акаунтів суперпоширювачів були виявлені у 2020 році і зараз стали неактивними або були забанені на платформі. На той час Twitter експериментував зі способами боротьби з дезінформацією, але цей підхід різко контрастує з нинішньою ситуацією, коли X вирішив звільнити більшу частину свого персоналу з модерації контенту і навіть розформував свою команду з забезпечення виборчої цілісності.
Також важливо зазначити, що значна частина некредитоспроможної інформації в даних залишалася високою навіть після видалення 2 000 бот-акаунтів.
“У цій статті ми розглядаємо два дослідницьких питання, що лежать в основі проблеми цифрової дезінформації. Зокрема, ми порівнюємо ефективність кількох метрик для ідентифікації суперпоширювачів некредитоспроможного контенту на Twitter,” написали автори. “Потім ми використовуємо найефективніші метрики для якісного опису цих проблемних акаунтів.”
“Ручна класифікація активних суперпоширювачів, яких ми ідентифікуємо, показує, що понад половина з них активно бере участь у політичних дискусіях. Хоча переважна більшість з них є консерваторами, серед них є офіційні акаунти як Демократичної, так і Республіканської партій. Крім того, ми виявили значну частину акаунтів нано-впливовців, відомих ведучих телевізійних шоу, контроверсійних вчених і анти-вакцинаторів.”
Результати команди показують, що видалення суперпоширювачів з платформи справді призводить до значного зниження поширення некредитоспроможної інформації. Однак вони зазначають, що призупинення акаунтів для зменшення шкоди може сприйматися як спроба обмежити свободу слова.
“Ефективність інших підходів до модерації повинна бути оцінена дослідниками та фахівцями галузі,” пояснюють вони. “Наприклад, платформи можуть бути перепроектовані для стимулювання поширення достовірного контенту.”
Хоча ця робота зосереджується на суперпоширювачах дезінформації, вона може відкрити двері для майбутніх досліджень “підсилювачів” – акаунтів, які можуть поширювати дезінформацію, опубліковану іншими.