Нобелівську премію з фізики отримали вчені, які працювали над машинним навчанням нейромереж
Нобелівську премію з фізики 2024 року отримали вчені Джон Хопфілд та Джеффрі Хінтон за відкриття та винаходи, що забезпечили можливість машинного навчання нейромереж. Їхні роботи серед іншого допомогли створенню сучасних систем штучного інтелекту, повідомляє російська служба ВВС з посиланням на пресреліз Нобелівського комітету.
На пресконференції після повідомлення про присудження премії Хінтон назвав свою роботу над нейронними мережами революцією. Також він висловив занепокоєння з приводу її можливого застосування в майбутньому.
“Але мене турбує, що в результаті цього можуть з'явитися системи, більш інтелектуальні, ніж ми, які, зрештою, візьмуть управління в свої руки”, – зазначив учений.
Водночас Джон Хопфілд сказав, що не шкодує про свої відкриття та готовий зробити їх знову.
На сайті Нобелівського комітету йдеться, що Хопфілд та Хінтон використали наукові інструменти з фізики для розробки методів, що лежать в основі сучасного машинного навчання.
Вчені, взявши за основу фундаментальні принципи фізики, розробили алгоритми, що дозволяють використовувати структуру машинних мереж для обробки інформації, що дозволяє програмі навчатися та вдосконалюватися самостійно, без допомоги людини.
Джон Хопфілд створив асоціативну пам'ять, яка може зберігати та відновлювати зображення та інші типи структур даних. Джеффрі Хінтон винайшов метод, який може самостійно знаходити окремі параметри в масивах даних і здатний, наприклад, ідентифікувати конкретні елементи на фотографіях.
Створюючи технологію нейронних мереж, вчені спиралися на конструкцію людського мозку. Вузли комп'ютерної нейронної мережі пов'язані один з одним на принципах, подібних до тих, за якими працює людський мозок.
Мережа навчається, наприклад, шляхом розвитку більш міцних зв'язків між вузлами, у яких одночасно одночасно високі значення.
Хопфілд та Хінтон працювали над розробкою нейромереж з 1980-х років. Джон Хопфілд винайшов мережу, яка використовує метод збереження та відтворення повторюваних структур.
Ризики, які вбачають у розвитку ШІ
Як повідомляв ІМІ, у червні 2023 року голова британської розвідувальної служби МІ6 Річард Мур заявив, що штучний інтелект докорінно змінить світ шпигунства, але не замінить живих агентів.
У липні 2023 року Рада Безпеки ООН провела перше засідання щодо небезпек штучного інтелекту.
30 травня 2023 року провідні лідери в галузі штучного інтелекту, зокрема гендиректор OpenAI Сем Алтман, разом з експертами й професорами порушили питання “загрози вимирання людства через ШІ”, закликавши законотворців розглядати її на рівні з ризиками від пандемій і ядерної війни.
У березні бізнесмени Ілон Маск, Стів Возняк і група інших експертів зі штучного інтелекту та очільників індустрії опублікували відкритого листа із закликом до піврічної паузи в розробленні систем, потужніших за GPT-4, нещодавно запущений OpenAI. Автори листа посилаються на потенційні ризики таких розробок для суспільства й людства.
У вересні 2023 року ЮНЕСКО запустила “глобальні вказівки” щодо використання генеративного ШІ в освіті й наукових дослідженнях.
У вересні 2024 року в компанії Meta Platforms заявили, що поки не приєднуватимуться до Пакту Європейського Союзу з питань штучного інтелекту.
Help us be even more cool!