Провідні лідери та експерти підписали листа про ризик вимирання людства через ШІ
Провідні лідери в галузі штучного інтелекту, зокрема гендиректор OpenAI Сем Алтман, разом з експертами й професорами підняли питання “загрози вимирання людства через ШІ”, закликавши законотворців розглядати її на рівні з ризиками від пандемій і ядерної війни.
Про це йдеться у листі, опублікованому некомерційною організацією “Центр безпеки ШІ” (CAIS) й підписаному понад 350 людьми, повідомляє Reuters.
“Протидія загрозі вимирання через ШІ має стати пріоритетом світової спільноти на рівні з іншими ризиками суспільного масштабу, як-от пандемії чи ядерна війна”, – йдеться в листі.
Окрім Альтмана, серед них були генеральні директори компаній зі штучного інтелекту DeepMind і Anthropic, а також керівники Microsoft (MSFT.O) і Google (GOOGL.O). Також серед них були Джеффрі Хінтон і Йошуа Бенгіо — двоє з трьох так званих “хрещених батьків штучного інтелекту”, які отримали нагороду Тьюринга у 2018 році за роботу в галузі глибокого вивчення, а також професори різних закладів від Гарварду до китайського Університету Цінхуа.
Оприлюднення листа збігся із засіданням Ради з торгівлі та технологій США та ЄС у Швеції, де очікується, що політики обговорять питання регулювання ШІ.
Як повідомляв ІМІ, 24 травня генеральний директор компанії OpenAI Сем Альтман заявив, що виробник ChatGPT може розглянути можливість залишити Європу, якщо не зможе відповідати майбутнім нормам щодо штучного інтелекту (ШІ) в Європейському союзі.
11 травня депутати Європарламенту проголосували за широкий набір правил, які стануть частиною європейського закону про штучний інтелект, включно з повною забороною майже всіх технологій розпізнавання облич для стеження за громадянами.
16 травня в OpenAI (компанія-розробник ChatGPT) запропонували уряду США надавати компаніям повноваження для розроблення потужних систем штучного інтелекту на кшталт тієї, на якій працює сам ChatGPT.
У березні бізнесмени Ілон Маск, Стів Возняк і група інших експертів зі штучного інтелекту та очільників індустрії опублікували відкритого листа із закликом до піврічної паузи в розробленні систем, потужніших за GPT-4, нещодавно запущений OpenAI. Автори листа посилаються на потенційні ризики таких розробок для суспільства й людства.
Help us be even more cool!