У TikTok зростає кількість відео, де українських медійниць “перетворюють” на фейкових ведучих новин за допомогою штучного інтелекту (ШІ). Про це йдеться в новому дослідженні Texty. Видання проаналізувало сотні роликів з deepfake-ефектами та виявило цілеспрямоване використання цієї технології для поширення маніпуляцій.
Аналітики встановили: ШІ-генеровані відео активно просуваються алгоритмами TikTok і нерідко набирають десятки тисяч переглядів. У таких роликах журналістки нібито озвучують “новини”, яких ніколи не існувало, або коментують події з позицій, що збігаються з російськими пропагандистськими наративами. Йдеться про меседжі на кшталт “втоми Заходу”, зневіри в силах оборони чи дискредитації української влади.
Основна мета таких роликів – використати впізнавані обличчя українських журналісток як інструмент легітимізації фейкових повідомлень. За словами авторів дослідження, це створює ілюзію, що вигадки озвучує реальна ведуча, а отже – подія видається достовірнішою для необізнаного глядача.
Експерти виявили, що значна частина таких відео створюється “пакетами” – десятками або сотнями протягом доби. Це може свідчити про організоване виробництво контенту, а не про спонтанні дії окремих користувачів. Деякі акаунти, що поширюють deepfake-відео, мають тисячі підписників і публікують однотипні ролики за графіком, імовірно використовуючи автоматизовані інструменти ШІ.
У редакції наголосили, що платформа TikTok майже не реагує скарги щодо проблемних роликів. Навіть очевидні deepfake-відео залишаються доступними, якщо формально не порушують політики щодо “шкідливих маніпуляцій”. Ба більше, рекомендаційний алгоритм нерідко підсилює охоплення таких відео.
Журналістки, чиї обличчя використовують для маніпуляцій, стикаються з додатковими ризиками: від онлайн-хейту до спроб дискредитації в професійному середовищі. Автори дослідження попереджають, що ШІ суттєво збільшує масштаби загрози – тепер для створення переконливого фейку досить кількох хвилин і доступу до базових інструментів.
Аналітики закликають медіа та громадські організації напрацьовувати стратегії реагування: фіксувати факти зловживань, публічно їх озвучувати та вимагати від соцмереж чіткої політики щодо контенту, створеного ШІ. На їхню думку, без системних правил deepfake-маніпуляції й надалі залишатимуться ефективним інструментом інформаційного впливу.
Нагадаємо, у вересні 2025 року протягом двох днів у TikTok експерти Інституту масової інформації (ІМІ) виявили 30 відео з неправдивим змістом про Україну та російсько-українську війну, які платформа пропонувала користувачам до перегляду.