У Telegram зафіксували нову хвилю шахрайських схем, де зловмисники використовують штучний інтелект для створення підроблених голосових та відеоповідомлень. Про це повідомляє проєкт кіберполіції BRAMA в телеграм-каналі.
За його даними, спершу шахраї отримують доступ до акаунту людини, заволодівають її голосовими та відеоповідомленнями, а також історією листування. Потім за допомогою ШІ генерують фейкові відео, у яких людина нібито просить гроші. Такі повідомлення розсилають друзям, знайомим чи колегам, і вони видаються максимально правдоподібними.
Експерти попереджають, що технології дозволяють відтворювати голос і зовнішність майже ідентично, тож навіть близькі люди можуть стати жертвами обману.
Щоб убезпечитися, радять:
- увімкнути двофакторну автентифікацію (2FA) в Telegram, використовуючи застосунок, а не SMS;
- перевіряти автентичність відео чи “кружечків”, особливо якщо йдеться про прохання переказати кошти;
- не відкривати підозрілих посилань і файлів від незнайомців.
Як повідомляв ІМІ, у вересні 2025 року продюсерка проєкту Ukraїner po polsku Наталя Панченко повідомила про появу хвилі дезінформації та дипфейків, спрямованих проти неї. За її словами, останніми днями в мережі поширюються сфабриковані відео, де штучний інтелект “підставляє” її голос і нібито від її імені говорить образливі висловлювання щодо поляків.