ГАРЯЧА ЛІНІЯ(050) 447-70-63
на зв’язку 24 години
Залиште свої дані
і ми зв’яжемося з вами
дякуємо за звернення

Або ж зв’яжіться з нами:

[email protected]

(050) 447-70-63

Подай скаргу

У мережі стрімко зростає кількість дипфейк-порнографії завдяки штучному інтелекту – медіа

19.10.2023, 15:23
Фото – James Marshall / Getty Images / Wired
Фото – James Marshall / Getty Images / Wired

У мережі стрімко зростає кількість дипфейк-порнографії завдяки розвитку технологій штучного інтелекту й розширення екосистеми дипфейків. Про це повідомляє видання WIRED з посиланням на незалежного дослідника, який  проаналізував неетичну дипфейк-порнографію та поділився результатами з медіа.

За даними аналітика, який побажав залишитись анонімним, на 35 найвідоміших сайтах, повністю чи частково присвячених дипфейк-порнографії, за останні сім років було завантажено щонайменше 244 625 відео – з них 113 000 лише за перші дев’ять місяців цього року.

Найчастіше жертвами шкідницьких дипфейків стають жінки, відео з якими створюються без їхнього згоди чи відома. Медіа зазначає, що популярними є застосунки, де за допомогою штучного інтелекту можна вставити чиюсь голову в порнографічне відео або “роздягнути” без згоди цієї людини.

У дослідженні йдеться про 35 сайтів, на яких розміщуються або лише порнографічні дипфейки, або дипфейки разом з іншим дорослим контентом. Воно не охоплює відео, поширені в соцмережах або приватно, та відредаговані фото. Дослідник проаналізував кількість і тривалість відеодипфейків на цих вебсайтах і за допомогою SimilarWeb простежив, як саме люди знаходять ці сайти.

Більшість із цих 35 вебсайтів містять по кілька тисяч відео, деякі – кілька сотень. Деякі відео, проаналізовані дослідником, мають мільйони переглядів.

Аналітик також виявив 300 порносайтів, на яких порнодипфейки наявні в той чи інший спосіб. За його словами, дипфейк-зображення містять сайти зі “злитими” матеріалами й ресурсами для розміщення фотографій із соцмереж інших людей. Власники одного вебсайту, що спеціалізується на зображеннях, заявляють, що “роздягли” людей на 350 тисячах світлин.

“Останнім часом дуже зросла доступність ШІ-інструментів для створення порнографічних дипфейків без згоди моделі, а також попит на такий контент на порнографічних платформах і в незаконних онлайн-мережах”, – стверджує Ашер Флінн, доцентка австралійського Університету Монаша, яка спеціалізується на ШІ й правопорушеннях, вчинених за допомогою технологій. За її прогнозами, нові генеративні ШІ лише погіршать ситуацію.

Як пише видання, мільйони людей знаходять вебсайти й програми для створення таких дипфейків за допомогою пошуковиків. 50–80% користувачів вебсайтів, проаналізованих дослідником, перейшли на них через пошуковики. Пошук відеодипфейків в інтернеті є звичайною справою й не потребує жодних спеціальних знань від людини. 

Проблема має глобальний масштаб. За допомогою VPN аналітик протестував пошук Google для Канади, Німеччини, Японії, США, Бразилії, Південної Африки й Австралії. В усіх випадках сайти з дипфейками потрапляли наверх списку результатів.

Флінн наголошує на “неспроможності законодавств і політик устигати” за розвитком шкідливого дипфейк-контенту. З появи перших дипфейків минуло п’ять років, а перші закони про криміналізацію поширення таких зображень починають з’являтися лише зараз. Експерти стверджують, що на додачу до нових законів потрібна також краща освіта про технології та заходи для протидії поширенню інструментів створення дипфейків. У цьому мають узяти участь, зокрема, компанії-хостери відповідних сайтів і пошуковики, включно з Google і Bing.

Як повідомляв ІМІ, в Іспанії, в містечку Альмендралехо, невідомі поширювали в соціальних мережах згенеровані штучним інтелектом оголені фото місцевих дівчат. 

У китайському застосунку TikTok поширювали відео, де жертви вбивств – переважно діти – описують власну смерть згенерованими ШІ голосами.

Марія Ігнатьєва, Катерина Дячук

Liked the article?
Help us be even more cool!