OpenAI прибрала заборону на використання ChatGPT у військових цілях
OpenAI прибрала зі своєї політики користування формулювання, що прямо забороняє використання її технологій у військових цілях. Ця політика регулює застосування інструментів, зокрема ChatGPT, повідомляє AIN.ua з посиланням на The Intercept.
Як пише видання, до 10 січня політика користування забороняла “діяльність із високим ризиком фізичної шкоди, зокрема розроблення зброї та військові дії”. Ця чітко сформульована заборона на військове застосування унеможливлювала будь-яке використання державною військовою силою.
Нова політика зберігає заборону на використання послуг, щоб “завдати шкоди собі чи іншим”, і наводить як приклад “розроблення чи використання зброї”, проте загальна заборона на використання у “військових цілях та бойових діях” зникла.
Як повідомили в компанії OpenAI, зміни внесено для “чіткості” та “читабельності” документа. Представник компанії Ніко Фелікс не відповів чітко, чи забороняє нова політика будь-яке військове використання, посилаючись на законність дій.
Експерти вважають, що компанія мовчки послаблює свою позицію проти ведення бізнесу з військовими.
Ці зміни сталися в час, коли армії всього світу хочуть використовувати штучний інтелект для отримання переваги.
Міноборони США активно досліджує можливість використання ChatGPT та інших великих мовних моделей для аналізу даних та інших цілей. Деякі представники військового керівництва висловлюють занепокоєння щодо фактичних помилок та безпеки використання цих технологій, але загалом Пентагон прагне їх застосовувати.
Аналіз даних свідчить про те, що американські військові вже використовують цю технологію для прискорення документообігу.
Help us be even more cool!