ГАРЯЧА ЛІНІЯ(050) 447-70-63
на зв’язку 24 години
Залиште свої дані
і ми зв’яжемося з вами
дякуємо за звернення

Або ж зв’яжіться з нами:

[email protected]

(050) 447-70-63

Подай скаргу

Розробники ШІ шукають нових шляхів для його розвитку

12.11.2024, 14:57

Компанії-розробники штучного інтелекту, зокрема OpenAI, розробляють нові методи навчання мовних моделей, використовуючи більш "людиноподібний" підхід до оброблення даних, повідомляє Reuters.

Дюжина науковців зі сфери ШІ, дослідників та інвесторів повідомила агенції, що ці нові методи, на які спирається нещодавно випущена модель o1 від OpenAI, можуть докорінно змінити "перегони озброєнь" у сфері ШІ й вплинути на типи ресурсів, яких постійно потребують компанії-розробники, – від енергії до чипів.

OpenAI відмовилася давати коментарі з цього приводу. Після запуску чат-бота ChatGPT два роки тому технологічні компанії, чия вартість значно зросла завдяки ШІ-буму, публічно стверджували, що збільшення обсягу даних і обчислювальних потужностей допоможе створювати кращі моделі ШІ.

Однак зараз деякі з найвідоміших науковців у сфері ШІ висловлюють думку, що ця філософія "більше – краще" має певні обмеження.

Співзасновник лабораторій ШІ Safe Superintelligence (SSI) й OpenAI Ілля Суцкевер заявив Reuters, що результати масштабування попереднього навчання – фази тренування, в межах якої в модель вводиться величезна кількість неанотованих даних, щоб розбудувати розуміння мовних патернів і конструкцій, – досягли плато.

“2010-ті були епохою масштабування, зараз ми знову повертаємося до епохи здивування й відкриттів. Тепер як ніколи важливо обирати, що саме масштабувати”, – каже Суцкевер.

За лаштунками дослідники з великих ШІ-лабораторій стикаються із затримуванням й невтішними результатами в спробах випустити мовну модель, яка перевершила б GPT-4. Про це агенції повідомили три джерела, ознайомлені з приватними справами.

Так звані тренувальні запуски великих моделей можуть коштувати десятки мільйонів доларів через одночасну роботу сотень чипів. Висока складність системи часто призводить до апаратних збоїв, а про результати роботи моделей дослідники можуть дізнатися лише після запуску, який триває місяцями.

Ще одна проблема полягає в тому, що великі мовні моделі потребують величезної кількості даних і моделі ШІ вже вичерпали всі легкодоступні дані у світі. Дефіцит електроенергії також затримує тренування, оскільки цей процес вимагає великих обсягів енергії.

Для подолання цих проблем дослідники розглядають метод "обчислень під час використання", який покращує роботу поточних моделей ШІ протягом фази "умогляду", тобто коли з моделлю взаємодіють. Так, замість того щоб одразу видати одну відповідь, модель може генерувати й оцінювати кілька варіантів, з яких обирає найкращий.

Цей метод дозволяє моделям виділяти більше обчислювальної потужності на складні завдання на кшталт розв'язання математичних задач або програмування, які вимагають людиноподібного мислення.

"Виявилося, що дати боту 20 секунд на роздуми під час гри в покер покращує його продуктивність так само, як масштабування моделі в 100 тисяч разів і тренування її в 100 тисяч разів довше", – сказав дослідник OpenAI Ноам Браун, який працював над моделлю o1, на конференції TED AI в Сан-Франциско минулого місяця.

Як повідомляв ІМІ, в Україні запустили платформу з безкоштовними ресурсами для вивчення ШІ (штучного інтелекту). Курси безоплатні й доступні українською та англійською мовами. Платформа допоможе навчитися того, як завдяки ШІ автоматизувати обчислення, оброблення контенту, прописати типові відповіді клієнтам та чимало іншого. 

Марія Ігнатьєва, Валентина Троян

Liked the article?
Help us be even more cool!