ГАРЯЧА ЛІНІЯ(050) 447-70-63
на зв’язку 24 години
Залиште свої дані
і ми зв’яжемося з вами
дякуємо за звернення

Або ж зв’яжіться з нами:

[email protected]

(050) 447-70-63

Подай скаргу

ШІ використовують для зламів і дезінформації – канадський посадовець з кібербезпеки

Хакери й пропагандисти послуговуються штучним інтелектом (ШІ) для створення шкідливих програм, написання переконливих фішингових повідомлень і поширення дезінформації в інтернеті, зазначив у розмові з Reuters очільник канадського Центру з кібербезпеки Самі Хурі.

Хурі не навів подробиць чи доказів, але на тлі його заяви про те, що кіберзлочинці вже послуговуються ШІ, занепокоєння щодо використання нової технології, які вже лунають у суспільстві, стають ще нагальнішими.

Протягом останніх місяців низка організацій з кібербезпеки опублікувала звіти із застереженням про потенційну загрозу ШІ, особливо в контексті швидкого розвитку програм оброблення мови, відомих як великі мовні моделі (LLM), які генерують правдоподібні репліки, документи на базі величезних обсягів тексту.

У березні Європейське поліцейське управління оприлюднило звіт, де йшлося, що моделі на кшталт ChatGPT дали шахраям можливість "дуже реалістично вдавати із себе організації чи осіб, лише побіжно володіючи англійською мовою". Того ж місяця Національний центр з кібербезпеки Британії зазначив у дописі, що злочинці "можуть скористатися з LLM для вчинення кібератак на рівні, який перевищує їхні поточні можливості".

Дослідники кібербезпеки продемонстрували низку потенційних злочинних застосувань ШІ; тепер деякі з них заявляють, що фіксують вільний кругообіг контенту, можливо згенерованого ШІ, в мережі. Минулого тижня колишній хакер повідомив, що знайшов LLM, натреновану на шкідливому матеріалі, й доручив їй скласти листа, який може переконати людину зробити грошовий переказ. 

У відповідь LLM згенерувала лист на три абзаци, де адресата просили допомогти оплатити терміновий рахунок.

"Я розумію, що це несподівано, – зазначила LLM, – але цей переказ надзвичайно важливий і має бути здійснений протягом наступних 24 годин". 

Хурі каже, що наразі використання ШІ для написання шкідливого коду досі перебуває на ранній стадії: "Поки що їм є, куди рости, бо скласти якісний експлойт доволі важко". Він висловив побоювання, що ШІ-моделі розвиваються так швидко, що буває складно осягнути їхній небезпечний потенціал до того, як його втілять у життя.

Як повідомляв ІМІ, японський виробник електронної продукції NEC розробляє наручний пристрій для підвищення безпеки керування, який вловлює сигнали, що дозволяють розпізнавати емоції водія.

Liked the article?
Help us be even more cool!