Китайська секта, ліпсінг, реклама БАДів та інші шахрайські схеми.
Чи бачили ви звернення президента Зеленського із закликом скласти зброю у 2022 році або фото наляканих котів під завалами у Бахмуті? Чи, можливо, натрапляли на рекламу БАДів, які "рекомендують" відомі ведучі? Усі ці випадки – фейки, часто створені за допомогою штучного інтелекту. Ми поспілкувалися з Ігорем Розкладаєм, заступником директорки Центру демократії та верховенства права і провідним експертом із медійного права та модерації контенту в соціальних мережах, щоб з’ясувати, що таке діпфейки, чому вони небезпечні та як навчитись розпізнавати подібні підробки.
Перший скандал з ШІ-картинками в Україні
Технологія ШІ не новинка, але під час повномасштабного вторгнення проблема з її частим застосуванням стає особливо гострою. Чого вартує скандальна історія із зображенням, створеним нейромережами, де була зображена дитина з Дніпра. За допомогою ШІ хтось створив картинку, на якій хлопчик наче схиляється, тримаючи маленькі ручки складеними біля себе. Цей фейк став дуже знаменитим, набрав безліч репостів і його поширили навіть деякі офіційні інстанції.
Та чи здогадувалися тоді українці, що це не реальний кадр, а створена ШІ-картинка?
"Проблема ШІ-картинок, які висвітлюють події, в тому, що це підриває довіру. Є завжди простір сказати: "Вони брешуть про війну". Це ставить під сумніви ті злочині, які чинить росія на території України", – зазначає експерт.
Також існують діпфейки – це технологія, яка за допомогою штучного інтелекту (ШІ) створює відео або аудіо, що виглядають як справжні, але насправді є підробкою. Вона дозволяє, наприклад, "переносити" обличчя однієї людини на тіло іншої або змінювати голос так, щоб він звучав як голос певної особи. Такі підробки можуть виглядати дуже правдоподібно і часом їх важко відрізнити від оригіналу. Наприклад, діпфейки створені про Барака Обаму, Ненсі Пелосі, Марка Цукерберга.
У яких сферах шахраї найчастіше використовують діпфейки?
Реклама
Дуже часто діпфейки можна побачити у рекламі псевдолікарських засобів, особливо БАДів (спеціальних добавок до їжі) або ніби-то соціальних виплат. Шахраї беруть зображення та відео відомих лікарів, телеведучих, блогерів і створюють за допомогою штучного інтелекту відео, де зірки "говорять" рекламний текст.
Ліпсінг
Популярністю серед шахраїв користується також ліпсінг. Це технологія, яка дозволяє накладати чужі слова на відео за допомогою синхронізації рухів губ, створюючи ілюзію, ніби людина насправді говорить те, що хочуть передати шахраї.
Наприклад, відео де Володимир Зеленський призиває українських військових покинути Авдіївський напрямок або у 2022 році, в якому його "вустами" закликали до припинення бойових дій. Це відео було помітно підроблене і більшість глядачів зрозуміли, що це фейк.
Китайська секта
Діпфейки та інші технології ШІ активно використовують шахраї та маніпулятори для створення фейкових сторінок і залучення підписників. Наприклад, існує китайська секта, яка приваблює людей у соцмережах через групи з невинними назвами, як-от "Православна молитва". Адмініструють ці групи здебільшого з Іспанії. Активних коментаторів і учасників цих спільнот вербують у китайську секту. Якщо точніше, то у секту, яка виникла у Китаї, але заборонена у цій країні. Йдеться про так звану "Церкву Всемогутнього Бога". .У таких групах розміщують фото молодих пар, які нібито щойно одружилися, з проханням привітати їх, чим підвищується популярність і видимість таких спільнот. Далі людям пропонують перейти на проповіді через месенджери, що можуть завершуватися фінансовими махінаціями.
Інший популярний спосіб шахрайства з використанням фейкових сторінок – це маніпулювання конфліктними темами. Такі сторінки часто розкручують теми, що викликають суперечки, наприклад, питання Криму. У коментарях розгортаються дискусії, що підвищує активність на сторінці, роблячи її більш помітною у соцмережах. Надалі такі спільноти часто продаються, наприклад, для поширення політичного контенту.
Експерт додає, автором діпфейку може бути практично будь-хто, оскільки інструменти ШІ зараз є доступними для широкої аудиторії. Адміністрування таких матеріалів відбувається з різних країн: Вірменії, Індонезії, США тощо. Шахрайство з використанням ШІ не має національних кордонів і не прив’язане до певної культури.
Чому люди вірять діпфейкам?
Головна причина в тому, що люди реагують емоційно, коли йдеться про щось тривожне та болісне. Коли з'являється інформація, яка відповідає їхнім переконанням або посилює емоційний фон, вони схильні приймати її за правду.
"Психологічні упередження відіграють тут значну роль: люди часто вірять у те, що хочуть вірити або те, що підкріплює їхнє розуміння подій. На цьому шахраї і будують свої схеми. Вони знають, що емоційний контент матиме більший вплив і швидше пошириться", – пояснює експерт.
Гарна новина – компанія Meta звернула увагу на проблему діпфейків і почала додавати позначку "Інформація про ШІ" до створеного за допомогою нейромереж відео-, аудіо- та графічного контенту.
Але є й зворотний бік. Медіа, які редагують свої матеріали за допомогою інструментів з елементами штучного інтелекту, таких як Photoshop, стикаються з проблемою маркування їхнього контенту. Наприклад, якщо звичайну фотографію лише підкорегували за яскравістю або контрастністю, система все одно може розпізнавати її як згенеровану ШІ, хоча зміни були мінімальними і не вплинули на суть зображення.
"Це викликає певну тривогу щодо довіри до контенту, який поширюють медіа. Якщо вся відредагована графіка буде позначатися як "ШІ", аудиторії може бути важко відрізнити справжні фото від повністю згенерованих. Потрібна система, яка б розрізняла повністю створений штучним інтелектом контент від того, який оброблено ШІ без суттєвих змін".
Як розпізнати діпфейк, якщо немає маркування?
Крок 1: аналіз зображення. Перевіряйте тіні, пропорції, особливості об'єктів. У зображеннях людей звертайте увагу на деталі – наприклад, на руки, які часто ховають за спиною чи під столом, щоб приховати аномалії, оскільки ШІ часто "помиляється" саме у зображенні рук (6 пальців, перетікання в одяг тощо).
Якщо це локації – перевірте на картах чи є та будівля саме в такому місці, як зображено.
Крок 2: перевірка джерела. Якщо фото поширюють сумнівні сторінки або користувачі, це привід бути уважним. Якщо стрічка цих сторінок заповнена схожими фейковими зображеннями, є велика ймовірність, що це зроблено для підвищення популярності сторінки, а не для поширення правдивої інформації. Зайдіть в інформацію про сторінку, подивіться коли вона була створена. Хто її адміністратори, чи не міняла вона назву. Спробуйте скористуватися системами пошуку зображень і перевірити чи воно виринало раніше.
Цікавий приклад
Нещодавно в соцмережах поширювали зображення котів у паніці під завалами, які нібито були з Бахмута. Вигляд цих котів, особливо їхні людські емоції, здавалися підозрілими. Пізніше арабські фактчекери з'ясували, що ці фото створила користувачка Instagram за допомогою ШІ, і такі зображення регулярно з'являлися на її сторінці. Саме це зображення вперше розслетілося щодо ситуації в Газі. Це класичний приклад того, як фейкові фото можуть маскуватися під реальні, викликаючи емоційний відгук у користувачів.
Матеріал створено в межах проєкту "Підтримка професійної журналістики під час війни", що реалізується ГО "Інтерньюз-Україна".