Байден видав наказ щодо розроблення правил безпеки ШІ
![Байден видав наказ щодо розроблення правил безпеки ШІ Фото – Мінцифри](https://imi.org.ua/upload/news/2023/05/04/645359965dc08-1_700x350.jpg?v=1722408798)
Президент США Джо Байден підписав розпорядження про правила роботи зі штучним інтелектом (ШІ) перед тим, як законотворці розроблять відповідні норми, повідомляє The Verge.
Розпорядження має вісім цілей: створити нові стандарти захисту й безпеки ШІ, захистити приватність, просувати рівність і громадянські права, вступитися за споживачів, пацієнтів і студентів, підтримати робочих, заохочувати інновацію й конкуренцію, забезпечити лідерство США в галузі ШІ та забезпечити відповідальне й ефективне використання технології урядом.
Низка органів влади отримала наказ розробити відповідні стандарти, щоб запобігти використанню ШІ для створення біологічних матеріалів, визначити найкращі шляхи автентифікації матеріалів і реалізації передових програм кібербезпеки.
Національний інститут стандартів і безпеки (NIST) візьметься за розроблення стандартів для ШІ-моделей з “червоної групи” перед їхнім публічним запуском. Водночас департаменту енергетики й департаменту внутрішньої безпеки доручено вжити заходів щодо потенційної загрози, яку штучний інтелект становить для інфраструктури, а також щодо хімічних, біологічних, радіологічних, ядерних і кіберризиків. Розробники великих моделей штучного інтелекту на кшталт GPT й Llama 2 муситимуть надати результати перевірки на безпеку.
Адміністрація Байдена поділилася з журналістами лише словами високопосадовця, який зазначив: “Ми не відкликатимемо моделі, які вже доступні публічно. На наявні моделі поширюватимуться вже чинні правила про дискримінацію”.
Білий дім закликав конгрес ухвалити правила про приватність даних для захисту конфіденційності користувачів. У розпорядженні президента також міститься запит на федеральну підтримку розроблення технік і технологій “збереження приватності”.
Також у розпорядженні йдеться про запобігання використанню ШІ для дискримінації. Зокрема, про протидію дискримінації, вписаній в алгоритм, і забезпечення чесного використання подібних технологій для ухвалення вироків, амністування й стеження. Також урядовим органам наказано надати вказівки для орендодавців, федеральних пільгових програм і підрядників щодо запобігання посиленню дискримінації через ШІ.
Органам доручено розглянути питання скорочення робочих місць і надати звіт щодо впливу штучного інтелекту на ринок праці. Білий дім також заохочує робітників працювати в екосистемі ШІ й наказав запустити Національний ресурс дослідження ШІ, що міститиме інформацію для студентів і науковців та надаватиме малим бізнесам доступ до техпідтримки. Також у розпорядженні йдеться про оперативне наймання фахівців зі штучного інтелекту для роботи в уряді.
Адміністрація Байдена спершу видала Білль про права щодо штучного інтелекту, де окреслено набір принципів, яких мають дотримуватися розробники ШІ-моделей. Згодом на основі цього документа було укладено низку угод між Білим домом і кількома представниками індустрії, зокрема Meta, Google, OpenAI, Nvidia й Adobe.
Як повідомляв ІМІ, у липні Рада Безпеки ООН провела перше засідання щодо небезпек штучного інтелекту.
30 травня 2023 року провідні лідери в галузі штучного інтелекту, зокрема гендиректор OpenAI Сем Алтман, разом з експертами й професорами порушили питання “загрози вимирання людства через ШІ”, закликавши законотворців розглядати її на рівні з ризиками від пандемій і ядерної війни.
У березні бізнесмени Ілон Маск, Стів Возняк і група інших експертів зі штучного інтелекту та очільників індустрії опублікували відкритого листа із закликом до піврічної паузи в розробленні систем, потужніших за GPT-4, нещодавно запущений OpenAI. Автори листа посилаються на потенційні ризики таких розробок для суспільства й людства.
Марія Ігнатьєва, Катерина Дячук
Help us be even more cool!