ГАРЯЧА ЛІНІЯ(050) 447-70-63
на зв’язку 24 години
Залиште свої дані
і ми зв’яжемося з вами
дякуємо за звернення

Або ж зв’яжіться з нами:

[email protected]

(050) 447-70-63

Подай скаргу

Байден видав наказ щодо розроблення правил безпеки ШІ

31.10.2023, 10:01
Фото – Мінцифри
Фото – Мінцифри

Президент США Джо Байден підписав розпорядження про правила роботи зі штучним інтелектом (ШІ) перед тим, як законотворці розроблять відповідні норми, повідомляє The Verge.

Розпорядження має вісім цілей: створити нові стандарти захисту й безпеки ШІ, захистити приватність, просувати рівність і громадянські права, вступитися за споживачів, пацієнтів і студентів, підтримати робочих, заохочувати інновацію й конкуренцію, забезпечити лідерство США в галузі ШІ та забезпечити відповідальне й ефективне використання технології урядом.

Низка органів влади отримала наказ розробити відповідні стандарти, щоб запобігти використанню ШІ для створення біологічних матеріалів, визначити найкращі шляхи автентифікації матеріалів і реалізації передових програм кібербезпеки.

Національний інститут стандартів і безпеки (NIST) візьметься за розроблення стандартів для ШІ-моделей з “червоної групи” перед їхнім публічним запуском. Водночас департаменту енергетики й департаменту внутрішньої безпеки доручено вжити заходів щодо потенційної загрози, яку штучний інтелект становить для інфраструктури, а також щодо хімічних, біологічних, радіологічних, ядерних і кіберризиків. Розробники великих моделей штучного інтелекту на кшталт GPT й Llama 2 муситимуть надати результати перевірки на безпеку.

Адміністрація Байдена поділилася з журналістами лише словами високопосадовця, який зазначив: “Ми не відкликатимемо моделі, які вже доступні публічно. На наявні моделі поширюватимуться вже чинні правила про дискримінацію”. 

Білий дім закликав конгрес ухвалити правила про приватність даних для захисту конфіденційності користувачів. У розпорядженні президента також міститься запит на федеральну підтримку розроблення технік і технологій “збереження приватності”.

Також у розпорядженні йдеться про запобігання використанню ШІ для дискримінації. Зокрема, про протидію дискримінації, вписаній в алгоритм, і забезпечення чесного використання подібних технологій для ухвалення вироків, амністування й стеження. Також урядовим органам наказано надати вказівки для орендодавців, федеральних пільгових програм і підрядників щодо запобігання посиленню дискримінації через ШІ.

Органам доручено розглянути питання скорочення робочих місць і надати звіт щодо впливу штучного інтелекту на ринок праці. Білий дім також заохочує робітників працювати в екосистемі ШІ й наказав запустити Національний ресурс дослідження ШІ, що міститиме інформацію для студентів і науковців та надаватиме малим бізнесам доступ до техпідтримки. Також у розпорядженні йдеться про оперативне наймання фахівців зі штучного інтелекту для роботи в уряді.

Адміністрація Байдена спершу видала Білль про права щодо штучного інтелекту, де окреслено набір принципів, яких мають дотримуватися розробники ШІ-моделей. Згодом на основі цього документа було укладено низку угод між Білим домом і кількома представниками індустрії, зокрема Meta, Google, OpenAI, Nvidia й Adobe.

Як повідомляв ІМІ, у липні Рада Безпеки ООН провела перше засідання щодо небезпек штучного інтелекту. 

30 травня 2023 року провідні лідери в галузі штучного інтелекту, зокрема гендиректор OpenAI Сем Алтман, разом з експертами й професорами порушили питання “загрози вимирання людства через ШІ”, закликавши законотворців розглядати її на рівні з ризиками від пандемій і ядерної війни.

У березні бізнесмени Ілон Маск, Стів Возняк і група інших експертів зі штучного інтелекту та очільників індустрії опублікували відкритого листа із закликом до піврічної паузи в розробленні систем, потужніших за GPT-4, нещодавно запущений OpenAI. Автори листа посилаються на потенційні ризики таких розробок для суспільства й людства.

Марія Ігнатьєва, Катерина Дячук

Liked the article?
Help us be even more cool!