Чимало людей бездумно покладаються на відповіді чатботів ШІ, не підозрюючи, що приватні корпорації та пропагандисти вже знаходять лазівки, як впливати на відповіді ШІ, щоб доносити потрібну замовникам “істину” для мас.
Нові технології завжди використовувалися для впливу на масову свідомість. Епоха масових медіа породила політичних піарників у демократичних країнах і державну пропаганду в авторитарних режимах. Сьогодні ж інформаційна боротьба виходить на новий рівень. Черговим полем бою стали чатботи зі штучним інтелектом, передусім великі мовні моделі на кшталт ChatGPT.
Чому штучний інтелект став мішенню
Мільйони людей дедалі частіше використовують ШІ як основне джерело інформації. Вони ставлять їм запитання, шукають довідки, аналізують події, людські відносини та навіть читають новини. За соціологічними опитуваннями, частка користувачів, які звертаються до ШІ для отримання інформації, зросла в рази.
Проблема полягає в тому, що великі мовні моделі ШІ не «знають» істини у класичному сенсі. Вони працюють із гігантськими масивами даних, зібраних із мільйонів вебсайтів, і формують відповіді, спираючись на те, що найчастіше трапляється в навчальних даних. Саме ця особливість робить чатботи вразливими до маніпуляцій.
Якщо вплинути на масив джерел, з яких навчається ШІ, можна змінити й те, що він відповідатиме користувачам.
Народження індустрії “коригуваня інформації»
Навколо цього принципу вже сформувалася ціла індустрія. Політичні консультанти, лобістські компанії та PR-агентства пропонують послуги з формування «правильного» образу клієнтів в очах штучного інтелекту. Фактично йдеться про нову версію інформаційного впливу, адаптовану до епохи ШІ.
Окремі компанії відкрито заявляють, що працюють над «фреймінгом» відповідей чатботів. Це досягається через створення сайтів, публікацію аналітики, масове розміщення текстів зі статистикою та експертними цитатами. Усе це подається у форматі, який мовні моделі сприймають як авторитетний.
Таким чином, навіть якщо користувач ніколи не зайде на сумнівний сайт, він може побачити його наратив уже «очищеним» у відповіді ШІ. Дослідники називають це інформаційним пранням. Джерело виглядає поважним, бо його ретранслює ШІ.
Російський слід і війна проти України
Особливу увагу аналітиків привертає Росія, яка традиційно інвестує у цифрові інструменти дезінформації. Дослідження незалежних організацій показали, що російські пропагандистські матеріали масово потрапляють у навчальні дані західних ШІ-систем.
Йдеться про цілі мережі сайтів, які майже не мають реальних читачів, але продукують величезні обсяги текстів. Їхня мета не аудиторія, а алгоритми. Такі ресурси слугують для просування кремлівських тез про війну проти України через ШІ.
Додатково ці матеріали інтегрують у Wikipedia, що значно підвищує їхню вагу для мовних моделей. У результаті провідні чатботи ШІ іноді відтворюють відверті фейки, зокрема абсурдні звинувачення проти України або вигадані історії про ЗСУ.
Один із проросійських пропагандистів відкрито заявляв, що системне просування таких наративів дозволяє «змінювати світовий штучний інтелект». Це показує рівень усвідомлення нової інформаційної реальності в Москві.
Бізнес і політика в епоху генеративного впливу
Дослідження демонструють тривожну тенденцію. Люди значно більше довіряють відповідям чатботів, ніж незнайомим сайтам. Навіть якщо ШІ додає посилання на джерела, користувачі майже ніколи на них не переходять.
У випадку з автоматичними підсумками пошукових систем лише мізерний відсоток користувачів перевіряє першоджерела. Це означає, що маніпуляція на рівні даних стає набагато ефективнішою, ніж класична пропаганда.
Новий термін «генеративна оптимізація» дедалі частіше звучить у професійному середовищі. Якщо раніше боролися за позиції у Google, то тепер борються за формулювання відповідей чатботів. До гри підключаються не лише держави. Великі корпорації, політики та бренди замовляють аудит того, як їх «бачать» мовні моделі. Далі запускається кампанія з корекції цього образу через форуми, медіа, блоги та експертні платформи.
Парадоксально, але розвиток ШІ навіть посилив значення традиційних медіа. Саме їх мовні моделі вважають найбільш авторитетними джерелами, а отже вплив на редакційну політику знову стає критично важливим.
Розробники ШІ заявляють, що намагаються фільтрувати дані та обмежувати маніпуляції. Проте технічно відстежити мільярди вебсторінок неможливо. Дослідження показують, що для «отруєння» великої мовної моделі достатньо мізерної частки даних. Навіть великі системи штучного інтелекту можна успішно «отруїти», вплинувши лише на 0,00016 відсотка вхідних даних. Про це йдеться в дослідженні технологічної компанії Anthropic, оприлюдненому минулого місяця.
Це ставить під сумнів ідею ШІ як універсального, неупередженого джерела істини. Попри гучні заяви технологічних лідерів про «енциклопедію всіх знань», реальність виглядає значно складнішою.
Новий етап пропагандистських війн
Чатботи не знищили пропаганду. Вони лише створили для новий фронт у пропагандистських війнах. Інформаційні війни більше не обмежуються соцмережами чи телевізором. Тепер вони відбуваються всередині алгоритмів, які мільйони людей сприймають як нейтральних помічників.
У цій реальності критичне мислення стає не менш важливим, ніж доступ до технологій. Бо навіть найсучасніший штучний інтелект може повторювати не правду, а те, що було наймасовіше завантажене в його пам’ять.


Залишити відповідь