ГАРЯЧА ЛІНІЯ(050) 447-70-63
на зв’язку 24 години
Залиште свої дані
і ми зв’яжемося з вами
дякуємо за звернення

Або ж зв’яжіться з нами:

[email protected]

(050) 447-70-63

Подай скаргу

Штати та Британія підписали першу у світі угоду про безпечне використання ШІ

Міністерка науки Великої Британії Мішель Донелан та міністерка торгівлі США Джина Раймондо підписали першу у світі двосторонню угоду про безпечне використання штучного інтелекту. Британія і Штати стали першими країнами, що відтепер офіційно співпрацюють у тестуванні й оцінюванні ризиків від нових моделей штучного інтелекту.

Про це повідомляє Financial Times, передає "Бабель".

Угоду уклали на тлі того, що уряди посилюють регулювання ризиків використання штучного інтелекту для кібератак або розроблення біологічної зброї.

"Наступного року ми справді маємо діяти швидко, оскільки виходить нове покоління ШІ-моделей, які можуть повністю змінити правила гри, і ми ще не знаємо всіх їхніх можливостей", – сказала Донелан Financial Times.

Угода, зокрема, дозволить країнам обмінюватися досвідом через відрядження дослідників з нового Інституту безпеки штучного інтелекту Великої Британії (AISI), створеному в листопаді 2023 року, та його американського аналога, який ще не розпочав роботу.

Інститути співпрацюватимуть також у питанні незалежного оцінювання приватних ШІ-моделей, розроблених такими компаніями, як OpenAI і Google.

Партнерство будують за зразком кооперації між Штабом урядового звʼязку Великої Британії (GCHQ) та Агентством національної безпеки США, які тісно співпрацюють з питань, повʼязаних з розвідкою і безпекою.

Британська міністерка науки Донелан зазначила, що, оскільки багато найпередовіших компаній – розробників штучного інтелекту наразі в США, експертиза американського уряду є ключовою для розуміння ризиків ШІ.

Фінансований британським урядом AISI на чолі з технологічним інвестором і підприємцем Яном Гогартом залучив таких дослідників, як Джеффрі Ірвінг з Google DeepMind і Кріс Саммерфілд з Оксфордського університету, щоб розпочати тестування вже наявних, але ще не запущених ШІ-моделей.

OpenAI, Google DeepMind, Microsoft і Meta входять до числа тих технологічних компаній, які підписали добровільні зобовʼязання відкрити свої новітні генеративні моделі штучного інтелекту для перевірки AISI.

Цей інститут (AISI) відіграє ключову роль у прагненнях премʼєр-міністра Ріші Сунака зробити Велику Британію передовою країною в розробленні штучного інтелекту.

Як повідомляв ІМІ, у березні 2024 року Європейський парламент ухвалив Акт про штучний інтелект, який регулюватиме правила в цій сфері. Цей акт має на меті захистити базові права людини, демократію, верховенство права й екологію від небезпечних моделей штучного інтелекту (ШІ), водночас сприяючи інноваціям і становленню Європи як лідера в цій галузі. Нові правила окреслюють вимоги до ШІ залежно від його потенційних ризиків і масштабу впливу.

Liked the article?
Help us be even more cool!