З розвитком штучного інтелекту ботоферми, котрі досі суттєво впливали на результати виборів та здатні змінювати громадську думку, набувають ще більшого впливу. А відрізнити ботів, за якими стоїть ШІ, пересічним користувачам стає майже неможливо.

Сила ботоферм криється у схильності людини психологічно піддаватися стадному інстинкту. Коли ми бачимо, як у соцмережах більшість дописів у нашій стрічці критикують ТЦК, поширюють зраду і занепадницькі настрої, пишуть коментарі, що “не варто захищати цю країну і треба з неї виїжджати” і тд. – дуже часто перед нами не стільки “думка простих українців”, як навмисно поширена пропаганда і маніпуляція. Штучний інтелект лише масштабував їхні маніпуляційні потужності.

Якщо раніше Кремль наймав тисячі студентів для роботи в Ольгіно, які сиділи за клавіатурами і поширювали фейки різними мовами, то сьогодні їхні функції повністю перебрали на себе генеративні моделі ШІ.

Юлія Дукач, у статті “Армія коментаторів. Як ШІ перетворив російські ботоферми на зброю впливу” акцентує на новому рівні загроз ботоферм, безпрецедентно посилених штучним інтелектом.

У 2024 році вперше в історії в інтернеті вперше стало більше ботів, ніж реальних користувачів. І на жаль це не метафора, а констатація з щорічного Bad Bot Report від Imperva, компанії, яка роками відслідковує автоматизований трафік.

Відтепер цифрові маніпуляції більше не потребують масової участі людей – тепер вони працюють в промислових масштабах автономно.

 Штучний інтелект радикально прискорив і здешевив інформаційні операції. Те, що колись вимагало армії “копіпейстерів” за моніторами, сьогодні виконує алгоритм, здатний за секунди створювати тисячі унікальних коментарів і адаптувати їх під будь-яку тему.

Але найгірше, що ті інструкції, які донедавна допомагали розпізнати бота – загуглити аватарку чи затягнути його в дискусію – стали непридатними. Аватар створений ШІ виглядає реалістичніше за фотографії зі стоків, а бот здатен дискутувати так, що навіть досвідчений користувач не одразу зрозуміє підміну.
Людську імпровізацію замінила машинна переконливість – і це створює небезпечну асиметрію в інформаційному просторі.

Згідно з дослідженням OpenMinds та DFRLab, тільки на платформі Telegram з окупованих територій в Україні виявили понад 3600 активних ботів. За півтора року вони залишили щонайменше 316 тисяч коментарів – приблизно по 700 щодня. Це масштаби, які недосяжні для будь-якої людської “команди тролів” – і саме тому вплив стає системним.

До прикладу, один з ботів за один день залишив майже 1500 коментарів у 65 каналах на 40 тем. Telegram заблокував акаунт лише через нереалістичний темп активності. Але алгоритми швидко навчаються імітувати людські звички: робити паузи, писати в “вечірні години”, уникати нічної активності.
З кожним місяцем пропагандистські акаунти стають невидимішими – це природна еволюція будь-якої технології.

Молдова також під атакою

Показово, що хвилі атаки російських ботоферм, які донедавна паплюжили Україну, нещодавно зазнала Молдова. За 4 місяці до виборів майже кожен восьмий коментар у політичних каналах країни був згенерований ШІ.
Це свідчить про транснаціональний характер інформаційних операцій – російська пропаганда давно не обмежується українським контекстом. Приблизно 500 ботів у Молдові написали понад 80 тисяч коментарів двома мовами – російською та румунською. Вони звинувачували уряд, просували проросійські сили та формували ілюзію загального невдоволення владою.
Створення штучного “масового обурення” – один із найефективніших інструментів електоральної маніпуляції.

75% “молдовських” ботів були раніше активні в російських та українських каналах: вони обговорювали Путіна, критикували Зеленського, просували меседжі “русского міра”. Такий цифрослід свідчить про централізоване управління кампаніями – це не стихійні дії, а системна спецоперація. ШІ забезпечує до 95% унікальності коментарів, адаптуючи текст під конкретний пост. Звісно, помилки трапляються, але куди рідше. Епоха “пекельних борошн і намист ТЦК” відходить в минуле.

Принцип роботи ботоферми простий: росія формує набір ключових меседжів, алгоритм моніторить нові публікації та миттєво обирає потрібну тезу, а ШІ генерує персоналізований коментар.
Автоматизація всього циклу робить втручання людини мінімальним і перенаправляє ресурси в масштабування кампанії.

Найскладніший етап – навчити алгоритм правильно підбирати меседжі до тем, щоб не з’являлися абсурдні “збої”. Але кількість помилок стрімко зменшується, бо ШІ вчиться на мільйонах даних. Це означає, що інформаційний фронт стає майже невидимим – а отже, небезпечнішим.

Сьогодні за текстом неможливо точно визначити, бот це чи людина. Навіть грамотність чи здатність вести дискусію вже не показник. Фактчекінг теж не надто допоможе: якщо бот не поширює фейк, а лише “висловлює думку”, спростувати її неможливо. Це підриває сам фундамент публічної дискусії, де істина стає другорядною проти масовості висловлювань.

Боти створюють штучний консенсус – імітацію “думки більшості”. З психологічної точки зору це один із найглибших механізмів впливу: людина не хоче бути в меншості. Тому пропаганда працює не через переконання, а через тиск уявної більшості, якої насправді не існує!

Як цьому протидіяти?

  • Найефективніший спосіб протидії – масове інформування. Люди повинні знати, що велика частина коментарів у соцмережах може не належати реальним людям.
  • Не варто довіряти анонімним акаунтам у неперевірених спільнотах. Коментарі – це найменш контрольоване середовище соцмереж, і саме тому ботоферми роблять ставку на нього.
  • Платформи мають оновлювати інструменти модерації. Людина вже не здатна самостійно розпізнати бота – лише алгоритми можуть виявити іншу машину.
  • Держава та медіа повинні постійно пояснювати механіку таких атак. Інформаційна гігієна – це новий рівень цифрової оборони. Не завадить цілеспрямовано подавати щоденну інформацію про ці загрози по телебаченню, в армії та в навчальних закладах.
  • І найважливіше – потрібно зменшувати вплив “коментозалежності” у суспільстві. Боти існують там, де є реакція. Менше значення коментарям – менше простору для маніпуляцій.

Автор: Майданюк Валерій

Залишити відповідь