Ще кілька років тому підроблене відео чи аудіо можна було впізнати неозброєним оком: неприродна міміка, збій звуку, «пластмасове» обличчя. Але з розвитком штучного інтелекту фейки вийшли на якісно новий рівень і сьогодні навіть досвідчений журналіст може не одразу відрізнити підробку від реальності.

Коли обличчя і голос – не справжні

Deepfake (від deep learning – глибинне навчання і fake – підробка) – це технологія, яка дозволяє за допомогою нейромереж створювати або змінювати відео, фото чи звук так, що вони виглядають і звучать як справжні. Спочатку deepfake використовували в розважальній індустрії: фанати «оживляли» улюблених акторів, створювали фантастичні сцени або показували, як виглядали б історичні постаті в сучасності. Але швидко технологію взяли на озброєння маніпулятори, шахраї та пропагандисти – особливо російські.

У 2022 році в мережі з’явилося відео, де «Володимир Зеленський» закликає українських військових скласти зброю. Глибокий аналіз показав, що це був deepfake, створений для деморалізації українців. Причому фейк був зроблений примітивно і не вплинув на настрої українців та українських військ – ніхто не повірив і не склав зброю. Технологія почала активно застосовуватися й для фальшування новин. У США поширювали відео, де «Джо Байден» робить нібито скандальні заяви – хоча він цього ніколи не казав.

З цією технологією активізувалися й фінансові шахрайства на ґрунті ШІ. У Гонконзі штучно згенерований «керівник компанії» переконав співробітника переказати понад 25 мільйонів доларів. Усі ці випадки демонструють: сьогодні навіть короткий відеоролик або голосове повідомлення може бути результатом роботи алгоритму, а не людини.

Як AI робить фейки реалістичними

Сучасні нейромережі навчаються на мільйонах зображень і записів, щоб відтворювати людські риси, інтонації, навіть емоції з вражаючою точністю.

AI-генератори здатні копіювати міміку й рухи губ людини у режимі реального часу; імітувати голос за кілька секунд аудіозапису; створювати фейкові фото або «свідчення очевидців» із нуля; навіть підробляти елементи освітлення чи відбиття у дзеркалах, щоб усе виглядало природно.

Те, що раніше вимагало спеціальних студій і бюджету на рівні Голлівуду, сьогодні можна зробити за кілька хвилин у безкоштовному застосунку.

Як розпізнати deepfake: 5 простих прийомів

Попри всю реалістичність, більшість підробок можна викрити, якщо знати, на що звернути увагу.

1.      Сучасні моделі штучного інтелекту вже рідше «ламаються» на дрібницях, та все ж трапляються явно нереалістичні елементи на кшталт перекручених логотипів на одязі.

2. Подивіться на очі та міміку. Deepfake часто «збивається» у дрібних рухах – миготінні, м’язах біля очей чи кутиках губ. Якщо обличчя виглядає «замороженим» або рухається неприродно плавно – відео вже варто піддавати сумніву.

2.      Перевірте освітлення та фон. Освітлення на обличчі може не відповідати тіням чи блиску навколо. У фейкових відео фон іноді «пливе» або виглядає розмитим на межі з тілом.

3.      Зверніть увагу на звук. Навіть найкращі генератори голосу часто мають неприроднє звучання, дивну паузу між словами або «зрізані» дихальні звуки.

4.      Використовуйте зворотний пошук. Для фото – через Google Images або TinEye. Для відео – через InVID або Amnesty YouTube DataViewer. Якщо зображення вже з’являлося раніше в іншому контексті – це підробка.

5.      Перевіряйте джерело. Якщо відео вперше опублікував невідомий акаунт або немає офіційних підтверджень з кількох авторитетних ЗМІ – варто ставитися до цього критично.

Як розрізнити створене ШІ зображення, відео або аудіо?

•        ШІ часто генерується нереалістичний контекст – якого не може бути за визначенням. Варто дуже критично ставитися до усього, що ми бачимо в інтернеті. Навіть якщо це надсилається знайомими чи рідними людьми – вони самі могли стати жертвою дезінформації, або їхні акаунти могли зламати.

•        Погляд, який не фокусується. Очі людей на згенерованих ШІ портретах частіше за все виглядають порожніми і загалом неприродними. Так само на відео – різкі рухи, скутість або незрозумілі вирази обличчя, як-от непостійне моргання чи емоційні переходи, можуть бути ознаками відео, згенерованих штучним інтелектом.

•        Нестиковки в освітленні чи перспективах. Об’єкти ніби зависають у повітрі, нереалістичні тіні, дивне світло, щось не так із фоном тощо — усе це може вказувати на те, що зображення згенероване ШІ. Часто ШІ генерує відео з неприродними тінями, мерехтливим світлом або дивними текстурами. Слідкуйте за нереалістичними об’єктами, які з’являються та зникають, несподівано змінюються або приймають незвичні форми.

•        Розбіжності між аудіо та відео. Якщо є розсинхрон, це може бути ознакою згенерованого ШІ відео.

•        Щодо аудіо – звертайте увагу на неприроднє дихання або його відсутність. Штучний інтелект може нібито забувати про дихання взагалі, або додавати його звуки у недоречних місцях. Одноманітна інтонація та беземоційність, відсутність пауз, неправильна вимова чи наголоси – також можуть вказувати на аудіо, що згенеровано ШІ.

Як помилятися менше?

•        Застосовуйте принцип нульової довіри до всього, з чим стикаєтеся в онлайні. Це про звичку постійно все перевіряти й за замовчуванням не довіряти навіть знайомим речам і контактам. Тут більше про принцип нульової довіри.

•        Не діліться зображеннями або текстами, якщо бодай трохи сумніваєтесь у їхньому походженні.

•        Використовуйте перевірку зворотнього пошуку зображення (наприклад, через Google Images).

ШІ контент стає дедалі якіснішим і складнішим для розпізнавання. Тому перевірка джерела та сприйняття інформації з обережністю, поки вона не підтверджена – має бути правилом сьогодення.

Люди похилого віку й підлітки часто найвразливіші до маніпуляцій – варто показати їм, як розпізнавати фейки. І не завадить слідкувати за розвитком технологій. Нові інструменти вже дозволяють автоматично аналізувати відео на предмет deepfake – наприклад, Truepic або Deepware Scanner.

Ера штучного інтелекту стала новим викликом для медіаграмотності і зробила підробки майже невидимими, але не непереможними. Медіаграмотність сьогодні – це не лише вміння відрізнити пропаганду чи клікбейт, а й розуміння, що навіть «відеодоказ» може бути цифровою ілюзією.

Головне правило нової інформаційної доби: не вір очам – вір фактам.

Автор: Майданюк Валерій

Залишити відповідь