ШІ-асистенти, які вже стали щоденним джерелом інформації для мільйонів людей, систематично викривлюють новинний контент незалежно від мови, регіону й моделі штучного інтелекту.

Про це свідчать результати міжнародного дослідження, координованого Європейською мовною спілкою (ЄМС) й очоленого ВВС. У ньому взяли участь 22 суспільні мовники з 18 країн (включно з Україною).

Результати дослідження презентували 22 жовтня на новинних зборах ЄМС у Неаполі (Італія). 

Журналісти дослідили чотири провідні моделі ШІ й виявили низку системних проблем. Було оцінено понад 3 тисячі відповідей від ChatGPT, Copilot, Gemini й Perplexity за ключовими критеріями: точність, джерела, розмежування фактів і думок, надання контексту.

Основні висновки були такі:

  • 45% усіх відповідей містили щонайменше одну суттєву проблему;
  • 31% відповідей містив серйозні проблеми з цитуваннями, як-от відсутні або неправильно вказані джерела, приписування цитати не тому джерелу;
  • 20% містили серйозні неточності, зокрема вигадані подробиці й застарілу інформацію.

Найгірше показав себе Gemini – у випадку цього сервісу суттєві проблеми були в 76% відповідей, більш ніж удвічі більше, ніж в інших асистентів. Основна причина – слабка робота з джерелами.

Як порівняти з результатами аналогічного дослідження BBC на початку року, деяке покращення є, але кількість помилок залишається високою.

“Це дослідження остаточно доводить, що такі проблеми не є поодинокими випадками. Вони системні, не повʼязані з регіоном або мовою, і це ставить під загрозу довіру суспільства. Коли люди не знають, кому довіряти, вони припиняють довіряти будь-кому. А це є загрозою для участі громадян у демократичному процесі”, – сказав директор з медіа та заступник генерального директора ЄМС Жан Філіп Де Тендер. 

Директор програми BBC з генеративного ШІ Пітер Арчер додав: “Нас дуже цікавить розвиток ШІ й те, як він може допомогти нам надавати аудиторії ще цінніший продукт. Але люди мають бути впевнені в тому, що читають, дивляться й слухають. Попри деякі покращення очевидно, що проблеми досі є значними. Ми хочемо, щоб ці інструменти працювали якісно, і готові співпрацювати з компаніями – розробниками ШІ для досягнення цієї мети”.

Команда дослідження представила “Пакет порад з доброчесності новин у ШІ-асистентах”, який допоможе знайти розвʼязання виявлених проблем – від покращення відповідей ШІ до підвищення медіаграмотності користувачів. Пакет зосереджений на двох ключових питаннях:

  • “Що робить відповідь ШІ-асистента на запитання про новини якісною?”
  • “Які проблеми потрібно виправити?”

ЄМС та її члени також закликають європейських і національних регуляторів застосовувати чинне законодавство у сфері інформаційної доброчесності, цифрових послуг і медіаплюралізму. Вони наголошують на необхідності незалежного моніторингу ШІ-асистентів з огляду на швидкі темпи розвитку технологій і планують досліджувати це питання й далі на постійній основі.

Як повідомляв ІМІ, у деяких містах на радіо “Люкс” виходять випуски новин, які готує штучний інтелект. ШІ готує, монтує й озвучує новини. Це може бути три-п’ять випусків новин. Однак це відбувається під контролем людини, яка переглядає цю роботу.