ГАРЯЧА ЛІНІЯ(050) 447-70-63
на зв’язку 24 години
Залиште свої дані
і ми зв’яжемося з вами
дякуємо за звернення

Або ж зв’яжіться з нами:

[email protected]

(050) 447-70-63

Подай скаргу

У Великій Британії заявили, що штучний інтелект загрожує наступним виборам у країні

14.11.2023, 17:46
Фото – Мінцифри
Фото – Мінцифри

Британський національний центр кібербезпеки заявив, що штучний інтелект загрожує наступним національним виборам у країні, які заплановано на січень 2025 року. Про це йдеться у звіті британського центру, повідомляє Reuters.

У звіті зазначається, що британський “старомодний” метод голосування олівцем на папері ускладнить хакерам втручання в сам процес, але дипфейки й “надреалістичні боти” полегшать поширення дезінформації під час виборчої кампанії.

Також у звіті йдеться про кібератаки з боку ворожих держав і їхніх посередників, які стають дедалі частішими та їх усе складніше відстежувати.

Крім того, центр зазначає, що за останній рік постав новий клас кіберворогів, які часто підтримують подальше просування Росії в Україні й мають радше ідеологічні, ніж фінансові мотиви.  

За даними центру, держави й пов’язані з ними групи є “тривалою і значною загрозою”: від російськомовних злочинців, що атакують британські компанії вірусами-здирачами, до “кіберакторів, пов’язаних з урядом Китаю”, які спрямовують свої навички на досягнення “стратегічних цілей, що становлять загрозу для безпеки й стабільності інтересів Сполученого Королівства”.

Також центр назвав “викликом британській безпеці, який позначає початок нової епохи”, набуття Китаєм статусу супердержави в плані технологій.

“Китай може стати домінантною силою в кіберпросторі, якщо наші зусилля з розбудови нашої стійкості й спроможностей не будуть задовільними”, – йдеться у звіті центру.

Як повідомляв ІМІ, у липні Рада Безпеки ООН провела перше засідання щодо небезпек штучного інтелекту. 

30 травня 2023 року провідні лідери в галузі штучного інтелекту, зокрема гендиректор OpenAI Сем Алтман, разом з експертами й професорами порушили питання “загрози вимирання людства через ШІ”, закликавши законотворців розглядати її на рівні з ризиками від пандемій і ядерної війни.

У березні бізнесмени Ілон Маск, Стів Возняк і група інших експертів зі штучного інтелекту та очільників індустрії опублікували відкритого листа із закликом до піврічної паузи в розробленні систем, потужніших за GPT-4, нещодавно запущений OpenAI. Автори листа посилаються на потенційні ризики таких розробок для суспільства й людства.

Марія Ігнатьєва, Катерина Дячук

Liked the article?
Help us be even more cool!