У Великій Британії заявили, що штучний інтелект загрожує наступним виборам у країні
Британський національний центр кібербезпеки заявив, що штучний інтелект загрожує наступним національним виборам у країні, які заплановано на січень 2025 року. Про це йдеться у звіті британського центру, повідомляє Reuters.
У звіті зазначається, що британський “старомодний” метод голосування олівцем на папері ускладнить хакерам втручання в сам процес, але дипфейки й “надреалістичні боти” полегшать поширення дезінформації під час виборчої кампанії.
Також у звіті йдеться про кібератаки з боку ворожих держав і їхніх посередників, які стають дедалі частішими та їх усе складніше відстежувати.
Крім того, центр зазначає, що за останній рік постав новий клас кіберворогів, які часто підтримують подальше просування Росії в Україні й мають радше ідеологічні, ніж фінансові мотиви.
За даними центру, держави й пов’язані з ними групи є “тривалою і значною загрозою”: від російськомовних злочинців, що атакують британські компанії вірусами-здирачами, до “кіберакторів, пов’язаних з урядом Китаю”, які спрямовують свої навички на досягнення “стратегічних цілей, що становлять загрозу для безпеки й стабільності інтересів Сполученого Королівства”.
Також центр назвав “викликом британській безпеці, який позначає початок нової епохи”, набуття Китаєм статусу супердержави в плані технологій.
“Китай може стати домінантною силою в кіберпросторі, якщо наші зусилля з розбудови нашої стійкості й спроможностей не будуть задовільними”, – йдеться у звіті центру.
Як повідомляв ІМІ, у липні Рада Безпеки ООН провела перше засідання щодо небезпек штучного інтелекту.
30 травня 2023 року провідні лідери в галузі штучного інтелекту, зокрема гендиректор OpenAI Сем Алтман, разом з експертами й професорами порушили питання “загрози вимирання людства через ШІ”, закликавши законотворців розглядати її на рівні з ризиками від пандемій і ядерної війни.
У березні бізнесмени Ілон Маск, Стів Возняк і група інших експертів зі штучного інтелекту та очільників індустрії опублікували відкритого листа із закликом до піврічної паузи в розробленні систем, потужніших за GPT-4, нещодавно запущений OpenAI. Автори листа посилаються на потенційні ризики таких розробок для суспільства й людства.
Марія Ігнатьєва, Катерина Дячук
Help us be even more cool!