ГАРЯЧА ЛІНІЯ(050) 447-70-63
на зв’язку 24 години
Залиште свої дані
і ми зв’яжемося з вами
дякуємо за звернення

Або ж зв’яжіться з нами:

[email protected]

(050) 447-70-63

Подай скаргу

США створять інститут із проблем безпеки, пов'язаних з ШІ

США створять інститут з вивчення проблем безпеки, пов'язаних зі штучним інтелектом, для оцінювання вже відомих і тих, що виникають, ризиків, зумовлених застосуванням подібних технологій, заявила міністерка торгівлі Джина Раймондо, передає "Голос Америки". 

Виступаючи на саміті з цієї проблематики, що відбувається у Великій Британії, Раймондо закликала представників наукових і промислових кіл об'єднати свої зусилля.

"Ми не можемо зробити це самотужки, приватний сектор має зробити крок уперед", – наголосила вона, додавши, що американський інститут, який передбачається створити, встановить офіційне партнерство з британським інститутом безпеки.

Нова структура перебуватиме у віданні Національного інституту стандартів і технологій (NIST) і очолить зусилля уряду США щодо гарантування безпеки в цій сфері, особливо у сфері аналізу передових моделей ШІ.

Інститут "сприятиме розробленню стандартів безпеки, захисту та тестування моделей ШІ, розроблятиме стандарти аутентифікації контенту, створюваного ШІ, та надаватиме дослідникам тестові середовища для оцінювання ризиків ШІ, що виникають, і усунення відомих наслідків", йдеться в повідомленні мінторгу.

30 жовтня, у понеділок, президент США Джо Байден підписав указ із проблем штучного інтелекту, який зобов'язує розробників систем ШІ, що становлять ризик для національної безпеки США, економіки, здоров'я населення або безпеки, надавати уряду, відповідно до закону про оборонне виробництво, результати випробувань на перевірку.

Документ також наказує відомствам встановити стандарти проведення таких випробувань та усунути відповідні ризики, пов'язані з хімічною, біологічною, радіологічною, ядерною та кібербезпекою.

Як повідомляв ІМІ, у липні Рада Безпеки ООН провела перше засідання щодо небезпек штучного інтелекту. 

30 травня 2023 року провідні лідери в галузі штучного інтелекту, зокрема гендиректор OpenAI Сем Алтман, разом з експертами й професорами порушили питання “загрози вимирання людства через ШІ”, закликавши законотворців розглядати її на рівні з ризиками від пандемій і ядерної війни.

У березні бізнесмени Ілон Маск, Стів Возняк і група інших експертів зі штучного інтелекту та очільників індустрії опублікували відкритого листа із закликом до піврічної паузи в розробленні систем, потужніших за GPT-4, нещодавно запущений OpenAI. Автори листа посилаються на потенційні ризики таких розробок для суспільства й людства.

Liked the article?
Help us be even more cool!