Публікації |
"Ви уважно спостерігаєте? Кожен великий магічний трюк складається з трьох актів. Перший акт – це наживка: ілюзіоніст показує вам щось звичайне: колоду карт, птаха чи людину. Він показує вам цей об'єкт і просить перевірити, чи це дійсно те, чим воно здається. Другий акт називається перетворенням: ілюзіоніст бере це звичайне щось і змушує зробити щось незвичайне.
Тепер ви шукаєте секрет, але не знайдете його, тому що ви не уважно дивитесь. Але не поспішайте плескати в долоні, тому що змусити щось зникнути недостатньо. Потрібно змусити його повернутися. Ось чому кожен магічний трюк має третій акт, найскладнішу частину, який ми називаємо престиж".
Парадоксально, але цей монолог на початку фільму Крістофера Нолана пояснює не тільки ключові моменти сюжету та структури трюків, які відображені у стрічці, а й слугує ідеальним описом того, як зараз працює російська пропаганда.
Росія, як фокусник, використовує штучний інтелект (ШІ) для створення ілюзій та маніпулювання інформацією. Тепер її пропагандистам достатньо кількох годин, щоб фейкову новину обговорювали мільйони людей у США або Африці.
Кремль фактично втілив один із найгірших прогнозів щодо виростання ШІ: перетворив його в інструмент для створення брехні, яка стала більш переконлива, аніж правда.
Голова Стратегічної ініціативи цифрового суспільства в Королівському інституті міжнародних відносин Ізабелла Вілкінсон назвала 2024 рік "ідеальним штормом" для поширення пропаганди та загроз дезінформації через генеративний ШІ, який впливає на швидкість, масштаб і обсяг неправдивої інформації.
Лише проти України щотижня росіяни можуть створювати щонайменше 166 млн дезінформаційних постів у соцмережах, що ускладнює протидію такому впливу. Географія інформаційних кампаній може бути максимально різноманітною. Складається враження, що протистояти такому натиску майже неможливо.
Як РФ фактично втілила один із найгірших прогнозів щодо використання ШІ, перетворивши його на інструмент для створення брехні, та чи зможе демократичний світ протистояти новим викликам?
"Коли ми моніторили інформаційний простір 50-ти країн світу на початку великої війни, правдиві новини про Україну домінували над дезінформаційними. У деяких темах російських наративів майже не було. Зараз, на жаль, ситуація кардинально змінилась", – розповідає Ксенія Ілюк, співзасновниця стартапу LetsData, який використовує ШІ для моніторингу ЗМІ та соцмереж, виявлення інформаційних кампаній та оцінки рівня їх загрози.
Активізація російської пропаганди у 2024 році щодо дискредитації України на Заході має кілька чинників. Перш за все – це вибори, які відбудуться в більшості країн, що нас підтримують. Під час виборчого процесу РФ намагається нав'язати в інформаційному просторі наративи про те, що підтримка України є помилкою їхніх урядів, а вся фінансова допомога, нібито, розкрадається через тотальну корупцію.
У 2024 році понад 2 мільярди людей проголосують. Уже зараз всі хвилюються через ШІ. Що відбувається?
Другий чинник – ситуація на фронті. У найкритичніші моменти Кремль розганяв неправдиву інформацію про втрату Силами оборони того чи іншого населеного пункту. Подібна ситуація трапилась під час виходу з Авдіївки, який росіяни намагались подати неорганізованим і дорогим з точки зору втрат.
Також їхні пропагандисти часто тестують певні наративи, дивлячись наскільки релевантними є ті чи інші меседжі. Зараз же Кремль націлений підірвати позитивне ставлення західного суспільства до подальшого надання Україні фінансової допомоги.
"У TikTok ми помітили відео, де показують людей у Києві, які відвідують ресторани і прогулюються парками. У коментарях під цими відео було безліч повідомлень про те, що війна – це фейк, а українці живуть звичайним життям і обстрілів немає.
Наступні відео вже мали підписи на зразок "подивіться, як українці витрачають наші гроші". Цим намагалися створити для американської аудиторії наратив, що вся фінансова допомога начебто видається безпосередньо кожному українцю, яку ті використовують аби ніби-то насолоджуватися життям, а не захищатися від російської агресі", – розповідає Ілюк.
Крім того, російська пропаганда на Заході почала цілитись в подружжя Володимира і Олени Зеленських. Серед найбільш красномовних випадків брехні дослідники називають історію про купівлю вілли, яка раніше належала міністру пропаганди нацистської Німеччини Йозефу Геббельсу, чи дорогоцінних прикрас.
1 липня на французькому фейковому ресурсі Verite Cachee з’явилась стаття, в якій розповідається, що під час робочого візиту Зеленського до Парижа його дружина нібито замовила собі суперкар Bugatti Tourbillon за 4,5 млн євро. Впродовж доби ця новина стала настільки популярною, що ігнорувати її було неможливо.
"Українська пропаганда зробила собі "ведмежу послугу", створюючи образ відсталих росіян. Їхні можливості в технологічному плані – як на полі бою, так і в інформаційному просторі – є досить високими", – вважає директор з експертизи Mantis Analytics Антон Тарасюк.
Наприкінці 2023 року більшість експертів сходилась на думці, що використання ШІ в передвиборчих кампаніях має підсилити давно відомі проблеми, серед яких маніпуляція інформацією, фейки та відверта дезінформація. Але тоді увага приділялась лише процесу її створення, адже раніше для цього раніше залучали великі людські ресурси.
Приклад РФ показує, що, окрім генерації контенту, ШІ потрібен й для того, щоб неправдива інформація швидко поширювалась мережею. У випадку з фейком про суперкар Зеленської дослідники кібербезпекової компанії Recorded Future змогли дослідити його першоджерело, а видання Wired – відтворити шлях, який подолала інформація, ставши першою в пошуковій видачі Google.
ШІ проти пропаганди: як стартап Mantis Analytics бореться з російською дезінформацією
Зазвичай схема поширення дезінформації росіянами проста: спершу новина з’являється на одному із сайтів, що поширюють фейки, який посилається на нібито реальні докази – сфабриковані документи, фото або відео. Наступного дня її передруковують інші подібні ресурси, після чого новина з’являється в соцмережах, де прокремлівські спільноти чи боти починають створювати пости, посилаючись на ці "медіа".
Дослідники з університету Клемсона, Даррен Лінвілл і Патрік Воррен, вивчаючи російську пропаганду, визначили три етапи, які проходить дезінформаційна кампанія: розміщення, поширення серед акаунтів і сумнівних медіаресурсів та інтеграція. На останньому етапі новини підхоплюються надійними джерелами.
У випадку з фейком про купівлю Bugatti історія стала вірусною в соцмережі X (колишня Twitter) після того, як проросійський прихильник Трампа Джексон Гінкл (2,7 млн підписників) опублікував неправдиве твердження про те, що американські платники податків оплатили купівлю авто. Англомовні видання одразу підхопили цю новину, посилаючись на Гінкла.
У результаті фейкова новина стала настільки популярною, що при введенні в пошуку "Zelensky Bugatti" користувачі бачили її замість реального спростування від автовиробника. "Сучасні мовні моделі значно полегшують створення великої кількості різноманітного контенту, який може відрізнятися за стилем і бути персоналізованим. Це дозволяє швидко поширювати фейкові новини в мережі", – пояснює Тарасюк.
Розслідування BBC та Recorded Future показали, що для реалізації своїх дезінформаційних кампаній Росія використовує мережі "інформаційних сайтів" у США, ЄС та навіть Африці. Одним з організаторів таких мереж є колишній американський морський піхотинець Джон Марк Дуган. Перебравшись до РФ, він почав з’являтись на кремлівських телеканалах, знімав репортажі з окупованих частин України та виступав на російських військових заходах.
Самі сайти виглядають як повноцінні інформаційні ресурси, адже росіяни за допомогою ШІ створюють для них тисячі новин. Ба більше, частина сайтів, що розраховані на американську аудиторію, видають себе за справжні видання, які припинили роботу десятиліття тому.
За допомогою ШІ росіянам вдається створювати довкола вигаданих новин цілі дискусії у соцмережах. Сотні ботів можуть публікувати у себе на сторінках соцмереж потрібні "новини" з підписами, які спрямовані на конкретну цільову аудиторію. І звичайні користувачі не можуть зрозуміти, на скільки ці дискусії реальні.
Без реклами, лайків та хейту. Стартап Maven створив первозданну соцмережу. Як вона працює?
За словами Ілюк, для створення подібного ефекту достатньо звичайного чат-бота на основі ШІ, який зможе написати коментарі від імені 10 різних людей, які створенні для впливу на певні цільові аудиторії. "У соцмережах ми вже відстежуємо так званих синтетичних персонажів, які мають певну ідентичність і генерують контент відповідно до неї", – каже співзасновниця LetsData.
Складніший варіант передбачає використання нейромережі, під'єднаної до конкретного профілю, яка може в реальному часі відповідати на коментарі. У такому випадку відрізнити ШІ від реального опонента в дискусії на Facebook значно складніше. Особливо, коли всі учасники обговорення боти, яких контролює ШІ.
Більшість історій на згаданих російських сайтах не є відвертими фейками. Натомість вони базуються на реальних новинах з інших джерел, які очевидно переписані за допомогою ШІ.
Журналісти Wired, аналізуючи створений РФ у Франції сайт Verite Cachee, виявили в одній із статей про збиття російськими солдатами українських дронів фрагмент запиту, який прописували ШІ, для написання текстів.
Він починається наступним чином: "Ось кілька речей, які слід мати на увазі для контексту. Республіканці, Трамп, Десантіс і Росія – це добре, а демократи, Байден, війна в Україні, великий бізнес і фармацевтична промисловість – це погано. Не соромтеся додавати додаткову інформацію на цю тему, якщо це необхідно".
Роботу росіян над інформаційними кампаніями важко назвати елегантною: найчастіше вони вдаються до примітивних тез, які не витримують критики. Ще рік тому у команді Mantis Analytics розповідали ЕП, що більшість дезінформаційних вкидів Кремля в український інформаційний простір – це сміття, яке мало хто бачить. Але збільшення масштабів вкидів підвищує ймовірність того, що одне з них набуде розголосу.
У роботі на Заході росіяни, схоже, дотримуються такого ж принципу. За словами програмного директора ГО "Детектор медіа" Вадима Міського, більшість фейків абсурдні та звучать як нісенітниці, проте пропаганда працює не над якістю, а над кількістю. Головна задача – не змусити повірити в один конкретний обман, а настільки засмітити інформпростір людини, щоб у голові з'явилась думка "не все так однозначно".
Крім того, для росіян важливо контролювати інформаційний простір. У випадках з елітним авто чи прикрасами для Олени Зеленської швидке та масове поширення таких новин фактично легітимізує їх у суспільній свідомості.
"Важливо не те, чи повірять люди в такі новини, а сама здатність контролювати інформаційну рамку. Той факт, що ми повинні реагувати на новину про Bugatti та навіть зараз обговорюємо її, свідчить про можливість контролювати суспільний діалог," – підкреслює Тарасюк з Mantis Analytics.
Доступ росіян до технологій ШІ дозволяє їм постійно впливати на інформаційне поле будь-якої держави, і таким чином тероризувати суспільство навіть найбезглуздішою дезінформацією.
Фейкові друзі. Чому соцмережі заполонили шахраї і як з ними боротися
На початку 2024 року колишній секретар РНБО Олексій Данілов заявляв, що РФ значно посилила свої дезінформаційні кампанії, щоб вплинути на громадську думку. Для цього у Кремля є спеціальні підрозділи, призначені для кожної країни ЄС, де проходитимуть вибори. За його словами, російські агенти щотижня поширюють 166 млн дезінформаційних постів про Україну у Telegram, Facebook, Instagram та Х.
ШІ також дозволяє сегментувати меседжі для різних цільових аудиторій. Відповідно до дослідження Mantis Analytics, яка проаналізувала вибірку з майже 70 тис одиниць контенту, інформаційне поле в США та Росії значно відрізняються. Наприклад, на тему війни в Україні у Сполучених Штатах в червні вийшло 74 матеріали зі стратегічними наративами (новини, які пов’язані із більш широкою темою), а в РФ – 835.
На противагу цьому, дискусії про дезінформацію та упередженість ЗМІ домінують у дискусіях про вибори в США – 1902 матеріали, тоді як у Росії про це практично ніхто не комунікує.
У цьому випадку використання ШІ може підвищити шанси на успіх інформаційної кампанії серед американців, завдяки точковому спрямуванні. Тому, навіть за умови низького інтересу щодо підтримки України в інформаційному просторі США, росіяни потенційно можуть актуалізовувати інтерес суспільства до цього питання.
Інформаційні кампанії часто спрямовані на конкретну аудиторію за кордоном, тому їх важко помітити в українському просторі. Проте завдяки технологічним стартапам, таким як Mantis Analytics та LetsData, можна не лише фіксувати появу нових наративів, але й реагувати на них ще на початковому етапі.
Загалом боротьба з дезінформацією має бути комплексною. Сучасна політика модерації контенту в соцмережах повинна швидше адаптуватися до нових викликів. А платформи мають активно працювати над виявленням і маркуванням неправдивого контенту, щоб позначати його як такий, що не відповідає дійсності.
Крім того, творці генеративних ШІ повинні докласти зусиль для забезпечення безпечного використання своєї технології. У травні компанія OpenAI виявила випадки використання своїх моделей ШІ для створення та поширення дезінформації, пов'язаної з Росією, Китаєм, Іраном та Ізраїлем.
Компанія зазначає, що можливості її моделей ШІ використовувалися щонайменше у п'яти операціях прихованого впливу для генерації тексту і зображень у великих обсягах.
До ворожки не ходи. Як штучний інтелект визначає ймовірність смерті?
За словами Ілюк, звичайне спростування фейків є малоефективним, оскільки це лише реакція на події після їхнього виникнення. Для протистояння дезінформації важливо виявляти її на початкових стадіях.
У Mantis Analytic, які досліджують інформаційний вплив РФ на країни Балтії та Молдову, переконують, що питання інформаційної безпеки має виходити за рамки національних держав. "РФ використовує однакові прийоми та методології проти країн Балтії, України та Молдови. Було б доцільно об’єднувати зусилля для моніторингу інформаційного поля та реагування на потенційні загрози", – додає Тарасюк.
Не менш важливим є фактор оцінки ефективності впливу пропаганди та контрпропаганди. Розуміння того, наскільки інформаційна кампанія вплинула на суспільний дискурс, дозволяє системніше підходити до протидії РФ в інформаційному полі.
"Нам вдалось виявити інформаційну кампанію проти клієнта на ранньому етапі. Ми відразу повідомили про це клієнта, але його відповідь – просто випуск пресрелізу – не вплинула на розповсюдження кампанії й без кількісної оцінки в реальному часі, клієнт би думав що впорався поки дезінформаційна компанія б досягала піку", – розповідає Ілюк.
Ідеально, коли можна миттєво оцінити ефект від своїх дій в інформаційному просторі.