Байден видав наказ щодо розроблення правил безпеки ШІ
Президент США Джо Байден підписав розпорядження про правила роботи зі штучним інтелектом (ШІ) перед тим, як законотворці розроблять відповідні норми, повідомляє The Verge.
Розпорядження має вісім цілей: створити нові стандарти захисту й безпеки ШІ, захистити приватність, просувати рівність і громадянські права, вступитися за споживачів, пацієнтів і студентів, підтримати робочих, заохочувати інновацію й конкуренцію, забезпечити лідерство США в галузі ШІ та забезпечити відповідальне й ефективне використання технології урядом.
Низка органів влади отримала наказ розробити відповідні стандарти, щоб запобігти використанню ШІ для створення біологічних матеріалів, визначити найкращі шляхи автентифікації матеріалів і реалізації передових програм кібербезпеки.
Національний інститут стандартів і безпеки (NIST) візьметься за розроблення стандартів для ШІ-моделей з “червоної групи” перед їхнім публічним запуском. Водночас департаменту енергетики й департаменту внутрішньої безпеки доручено вжити заходів щодо потенційної загрози, яку штучний інтелект становить для інфраструктури, а також щодо хімічних, біологічних, радіологічних, ядерних і кіберризиків. Розробники великих моделей штучного інтелекту на кшталт GPT й Llama 2 муситимуть надати результати перевірки на безпеку.
Адміністрація Байдена поділилася з журналістами лише словами високопосадовця, який зазначив: “Ми не відкликатимемо моделі, які вже доступні публічно. На наявні моделі поширюватимуться вже чинні правила про дискримінацію”.
Білий дім закликав конгрес ухвалити правила про приватність даних для захисту конфіденційності користувачів. У розпорядженні президента також міститься запит на федеральну підтримку розроблення технік і технологій “збереження приватності”.
Також у розпорядженні йдеться про запобігання використанню ШІ для дискримінації. Зокрема, про протидію дискримінації, вписаній в алгоритм, і забезпечення чесного використання подібних технологій для ухвалення вироків, амністування й стеження. Також урядовим органам наказано надати вказівки для орендодавців, федеральних пільгових програм і підрядників щодо запобігання посиленню дискримінації через ШІ.
Органам доручено розглянути питання скорочення робочих місць і надати звіт щодо впливу штучного інтелекту на ринок праці. Білий дім також заохочує робітників працювати в екосистемі ШІ й наказав запустити Національний ресурс дослідження ШІ, що міститиме інформацію для студентів і науковців та надаватиме малим бізнесам доступ до техпідтримки. Також у розпорядженні йдеться про оперативне наймання фахівців зі штучного інтелекту для роботи в уряді.
Адміністрація Байдена спершу видала Білль про права щодо штучного інтелекту, де окреслено набір принципів, яких мають дотримуватися розробники ШІ-моделей. Згодом на основі цього документа було укладено низку угод між Білим домом і кількома представниками індустрії, зокрема Meta, Google, OpenAI, Nvidia й Adobe.
Як повідомляв ІМІ, у липні Рада Безпеки ООН провела перше засідання щодо небезпек штучного інтелекту.
30 травня 2023 року провідні лідери в галузі штучного інтелекту, зокрема гендиректор OpenAI Сем Алтман, разом з експертами й професорами порушили питання “загрози вимирання людства через ШІ”, закликавши законотворців розглядати її на рівні з ризиками від пандемій і ядерної війни.
У березні бізнесмени Ілон Маск, Стів Возняк і група інших експертів зі штучного інтелекту та очільників індустрії опублікували відкритого листа із закликом до піврічної паузи в розробленні систем, потужніших за GPT-4, нещодавно запущений OpenAI. Автори листа посилаються на потенційні ризики таких розробок для суспільства й людства.
Марія Ігнатьєва, Катерина Дячук
Help us be even more cool!