Використання ШІ в медіа: як зберегти якість контенту. Інтерв’ю з експертом із ШІ Олексієм Мінаковим

Штучний інтелект галюцинує, поширює упередження і міфи та вдає, що вміє розмірковувати. Водночас він таки може полегшити роботу журналістів, стати помічником, який підвищує якість матеріалів та прискорює виробництво контенту. Але від журналістів, від їхніх намірів, знань та вмінь залежить, чи даватиме ШІ користь, чи він завдасть шкоди медіа і суспільству. Про це Інституту масової інформації в інтерв’ю розповів експерт із застосування штучного інтелекту Олексій Мінаков.
Відрізняти правду від вигадок наявні моделі штучного інтелекту не здатні, і це не є їхнім завданням, адже вони не мають свідомості, зазначає Мінаков. Він зауважує, що моделі ШІ від OpenAI чи Google, які нібито можуть “розмірковувати”, насправді лише містять елементи логіки. Для виконання завдання вони розкладають його на підзавдання, формують відповідь, переглядають її та коригують у разі потреби. Але й такі складні системи не мають розуміння, здатного відрізнити правдиву інформацію від вигаданої, уточнює Олексій Мінаков.
За словами експерта, сподіватися на точність від штучного інтелекту можна, коли йдеться про графіки, діаграми, таблиці даних – цифри загалом. Для такого аналізу ШІ використовує код на Python, тобто виступає лише посередником і не є безпосереднім виконавцем завдання. Такий спосіб виконання завдання унеможливлює елемент невизначеності, притаманний класичним моделям штучного інтелекту, зазначає Олексій Мінаков.
Тим часом дослідження Microsoft показало, що лише 36% людей під час взаємодії із сервісами ШІ вмикають критичне мислення. Тобто інші сприймають відповіді штучного інтелекту на свої запитання як істину, замість того щоб їх осмислити, оцінити та зробити власні висновки. Наслідком такої поведінки стає погіршення не лише навичок критичного мислення, а й когнітивних здібностей. Це, своєю чергою, може призводити до залежності від технологій та зменшення самостійності в розв'язанні проблем.

Скриншот ІМІ із сайту Oboz
Надмірна довіра до систем штучного інтелекту є особливо небезпечною для медіа
Журналісти мають розуміти, що ШІ – це лише інструмент, помічник, асистент на службі в людини, яка відіграє головну роль і формує завдання. Повністю делегувати свої завдання штучному інтелекту медійники не можуть, наголошує Олексій Мінаков у розмові з ІМІ.
Тим часом низка популярних українських онлайн-медіа перетворила на постійну практику поширення в стрічках новин марень штучного інтелекту, називаючи їх висновками та прогнозами, зокрема на політичні теми. У першій половині березня 2025 року більшість таких публікацій була присвячена президентові США Дональду Трампу та спробам змусити ШІ оцінити його дії.

Скриншот ІМІ із сайту “Телеграф”
На хайпі, у пошуку клікабельності медіа такими публікаціями сприяють саме вимкненню в аудиторії критичного мислення. Вони створюють уявлення, ніби штучний інтелект має суб'єктність, експертизу чи авторитетність. Подібні публікації не виправдовує навіть те, що вони чітко, вже в заголовках повідомляють, що текст виготовив ШІ.
Твердження, що штучний інтелект зробив, винайшов чи створив, не є коректним, тому що він ніколи б самостійно не створив, не знайшов, не проаналізував, якби не людина, наголошує Мінаков. Саме людина визначає завдання для системи штучного інтелекту, перевіряє та оцінює результат. Уже саме формулювання завдання може бути упередженим, наприклад може вимагати від системи пошуку аргументів на підтвердження тієї чи іншої позиції. Тому й не можна стверджувати, що аналіз чи прогноз зробив ШІ. Коректним тут буде твердження, що матеріал виготовила людина за допомогою штучного інтелекту.

Скриншот ІМІ із сайту “Кореспондент”
Крім того, додає експерт, подібний “аналіз” доречно було б супроводжувати коментарями фахівців, які могли б оцінити його якість. Тоді такі публікації видавалися б логічнішими та виваженішими й менше шкодили б критичному мисленню аудиторії.
Як зображення, згенеровані ШІ, можуть вплинути на якість українських медіа
Частіше в українських онлайн-медіа можна побачити інші способи експлуатації хайпу навколо теми штучного інтелекту. Йдеться про поширення зображень, згенерованих ШІ, у відповідь на завдання на кшталт “що було б, якби...”. Наприклад, який вигляд Леся Україна мала б у наші дні чи яким би було життя, якби не вимерли динозаври.

Скриншот ІМІ із сайту “24 канал”
Такі публікації зовсім не мають інформаційної складової. У кращому разі такий контент можна назвати розважальним. Тому до нього можна висунути лише одну вимогу: подібні матеріали не мають публікуватись у стрічках новин, щоб не засмічувати їх і не шкодити якості медіа.

Скриншот ІМІ із сайту “Фокус”
Опитування Інституту масової інформації, проведене 2024 року, показало, що 22% українських редакцій використовують штучний інтелект на постійній основі. Переважно медіа використовують ШІ для переведення аудіо- чи відеозаписів у текстовий формат. Якщо для розшифрування інтерв’ю людині можуть знадобитися години, то різноманітні сервіси штучного інтелекту виконують таке завдання за хвилини. Крім того, у взаємодії із системами ШІ медіа можуть оптимізувати тексти для різних платформ чи генерувати їх для соцмереж. Також штучний інтелект використовують для створення заголовків публікацій.
Створені в такий спосіб тексти, звісно, редагують люди. Тому в таких випадках використання ШІ заощаджує ресурси, зокрема час, і водночас не загрожує значними ризиками.
У тому самому контексті можна говорити й про креативні завдання, наприклад генерацію зображень. Коли редакція не має фото до тематичної статті, то є можливість згенерувати ілюстрацію. На думку Мінакова, так редакції можуть отримати вищі якість та персоналізацію, ніж завдяки пошуку фото в стоках. Але слід враховувати, що згенеровані штучним інтелектом фотореалістичні зображення можуть вводити аудиторію в оману. Менше ризиків за собою приховують абстрактні, карикатурні чи інші очевидно нереалістичні зображення, а також графіки, схеми тощо. Але так само лише за умови ретельної перевірки людиною.
Тому найкращим рішенням є маркування контенту, створеного за допомогою ШІ. Якщо читач бачить перед собою тексти чи реалістичні зображення, згенеровані за допомогою ШІ, він має це розуміти. А коли йдеться про новини, тоді все ж логічніше використовувати справжні фото реальних подій. Інакше виникає ризик того, що публікації втратять свою якість. Як це сталося в червні 2024 року, коли більшість досліджуваних ІМІ медіа поширила новину з офіційного джерела, що була проілюстрована немаркованим зображенням, згенерованим за допомогою ШІ. Новини, що ілюструвалися цим зображенням без жодної згадки про участь штучного інтелекту в його створенні, були оцінені як недостовірні, що негативно вплинуло на загальний рівень дотримання журналістських стандартів в онлайн-медіа України.
ШІ в редакції: новий інструмент журналіста, а не його заміна
У 2025 році в українських медіа шириться практика використання систем ШІ для озвучення текстів на сайтах. Це є рухом у напрямку інклюзивності, потенційно розширює аудиторію завдяки аудиторії, якій зручніше слухати, ніж читати, і не вимагає надзусиль від редакцій.
Нині штучний інтелект також здатен допомогти журналістові підготуватися до інтерв’ю. ШІ може дати альтернативний погляд на героя, підказати цікаві та гострі запитання. Хай не всі вони будуть коректними чи релевантними, але це лише допомога, підказка, якою журналіст може скористатись і вибрати відповідні запитання із запропонованих, зауважує Олексій Мінаков.
Крім того, ШІ вже можна залучати до роботи з великими текстами для їхнього структурування, аналізу та резюмування, вважає експерт. За його словами, за умови, що людина знайома з усім обсягом оброблюваної інформації, ставить продумані завдання і запитання, а також ретельно перевіряє результат роботи ШІ, така колаборація може дати якісні результати без зайвих ризиків.
Жодна система ШІ не напише самостійно якісної новини чи статті, але може допомогти відредагувати та покращити чернетку, підготовлену журналістом, – за допомогою інструментів штучного інтелекту можна отримати вищу якість статті. Звісно, для цього необхідне якісне виконання людиною своєї головної ролі. Тобто генерація контенту для медіа потребує контролю з боку журналістів та прозорого маркування, зазначає Мінаков.
Тому ключовим моментом у роботі медіа зі штучним інтелектом експерт вважає навчання, що дає навички роботи з різними моделями, розуміння їхніх можливостей та обмежень, переваг і недоліків.
Журналістам слід пам’ятати, що ШІ може галюцинувати, бути упередженим та підлаштовуватися під погляди користувачів. Також варто розуміти, звідки різні моделі штучного інтелекту беруть інформацію та як на їхню роботу впливають розробники.
Про це, а також про те, чи замінить у майбутньому ШІ журналістів та яких ще від нього чекати підступів, – у фрагменті інтерв’ю ІМІ з експертом із застосування штучного інтелекту Олексієм Мінаковим прямим текстом:
ІМІ: Олексію, як ШІ формує відповіді на запитання, що стосуються фактів?
Олексій Мінаков: Якщо ми говоримо про класичні моделі, то вони навчені на великій кількості інформації. Якщо, умовно кажучи, в більшості текстів, на яких навчалася модель, було написано, що Лондон – столиця України, то, відповідно, модель казатиме, що Лондон – столиця України. Якщо в більшості текстів, на яких вона навчалася, написано, що Київ – Україна, то вона й дає таку саму відповідь.
Є інформація в інтернеті, на ній навчають, очевидно, що не все підряд використовується. Відповідно, є певний часовий лаг між тим, коли модель навчається і коли вона виходить. Може минути і пів року, і рік до публічного запуску. І тому є цей часовий лаг, тобто якщо ми говоримо про класичну модель, то вона може не знати, що було декілька місяців тому або які останні події відбулися. Але всі сервіси компенсуються тим, що модель іде в інтернет для пошуку відповіді на запитання, що стосується, наприклад, останніх місяців.
ІМІ: Як і які джерела використовує ШІ? Як визначає їхню пріоритетність?
Олексій Мінаков: Ми не знаємо цього, це не є публічною інформацією, які є критерії визначення, обрання джерел, які є достовірними, а які ні. Саме тому, власне, і нещодавно було дослідження, яке показало, що росіяни через проєкт “Правда” створили англомовні матеріали, розповсюдили їх. І, як виявилося потім, моделі все ж таки навчалися на цих даних, на цих матеріалах і використовували їх під час надання відповідей. Тобто є проблеми з тим, щоб не всю підряд брати інформацію, щоб мати певне ранжування джерел. З цим поки не так усе добре, але відбувається і робота над удосконаленням.
Якщо в Google є велика історія ранжування сайтів і вони давно в цій темі, то, наприклад, GPT-чат, OpenAI – у розробників не було цієї ключової експертизи. Тому вони запартнерилися з іншими компаніями, з окремими медіа, але поки все ж не мають потужної експертизи в ранжуванні достовірності джерел.
ІМІ: Чому іноді один і той самий користувач від тієї самої моделі ШІ може отримувати різні відповіді на ідентичні запитання?
Олексій Мінаков: Модель може використовувати ті самі шматки тексту з бази даних, але комбінувати їх. І там завжди, якщо говорити математичною мовою, є елемент невизначеності, елемент хаосу. І саме через це суть може бути навіть та сама, але формулювання трішки різні.
Крім того, накладається пам’ять моделі щодо попередніх діалогів з користувачем. Вона запам'ятовує деякі моменти з листувань. Не слово в слово, а вибірково. Тому може коригувати відповіді.
Відповідно, користувачі, навіть розробники моделі, не можуть бути впевненими, що до кінця контролюють результати цієї генерації.
Наприклад, Gemini від Google, альтернатива чату GPT, з березня 2025-го враховує історію пошуку. Google намагається користуватися конкурентною перевагою, адже має доступ до цих даних.
ІМІ: Чи може ШІ вигадувати, тобто галюцинувати? Як це може відбуватися?
Олексій Мінаков: Так, штучний інтелект може галюцинувати. Від мови це особливо не залежить. Галюцинування є побічним ефектом креативності моделей ШІ. Знову-таки вони завжди мають елемент невизначності в кожній генерації. Тому щоразу відбувається нова оригінальна генерація. Але, з іншого боку, це може створювати галюцинації. Насамперед це стосується питань, яких не було в базі даних, на яких навчалася модель. Тобто насамперед це стосується специфічних питань, про які модель не чула й не знала, але намагається однаково надати відповідь. Саме через це відбуваються галюцинації.
Але в цьому напрямі є певний прогрес, адже зараз уже є так званий Deep research та подібні агенти, які генерують звіти з посиланнями на джерела, що дозволяє перевірити, звідки взята інформація. Вони не просто генерують наступний токен, а саме роблять дії. Йдуть в інтернет, сканують сайти, потім, коли цю інформацію отримали, вони її структурують. Галюцинації залишаються, але їх дедалі менше. Сьогодні точність значно вища ніж, скажімо, рік тому.
ІМІ: Штучний інтелект може бути упередженим?
Олексій Мінаков: Так. Ми ж усі знаємо, що 2022 року, коли GPT-чат з'явився в Україні, всі почали питати, чий Крим. Тоді система відповідала, що не все так однозначно. Потім вони виправили, очевидно, у своїй базі даних, прибрали якісь там згадки Russia Today та подібних сайтів, і чат зміг давати правильніші з погляду фактів відповіді.
Але загалом завжди буде питання, наскільки це коректна відповідь, тому що в американців ці системи мають одні відповіді, наприклад, а китайська має інші відповіді, з коригуванням на свою ідеологію. Тому це будуть різні системи штучного інтелекту, які будуть завжди відрізнятися, зокрема через оцю упередженість ідеологічну.
Штучний інтелект апріорі упереджений. Якщо ми протестуємо, наприклад, на політичний погляд за різними тестами GPT, то виявиться, що він лівої ідеології, більше ліберальний. Як немає стовідсотково об'єктивної людини, так і тут певна суб'єктивність є.
ІМІ: Наскільки легко нині створити реалістичний дипфейк за допомогою ШІ, так щоб користувач неозброєним оком не зміг відрізнити його від реального відео?
Олексій Мінаков: Складнувато на сьогодні. Тобто якщо говорити конкретно, то, наприклад, є сервіс SORA, який генерує відео дуже реалістичні, ніби зняті на відеокамеру.
Там є обмеження певні щодо тривалості, але навіть 15 секунд – це вже короткий відеоролик, який може ширитися соцмережами. І там за 200 доларів ви можете завантажувати статичне зображення людини, анімувати його і робити відео, яке матиме переконливий вигляд.
Є сервіси HeyGen, де можна завантажити відео з людиною і потім текстом прописати, що вона має озвучити, і отримати вже нове відео.
До того ж зробити цифровий голос, копію голосу сьогодні – це вже просто, швидко і дешево. Напрям генерації відео дуже швидко прогресує, зокрема за останній рік. Минулого року взагалі неможливо було згенерувати в тій чи іншій системі штучного інтелекту таке відео.
Сьогодні все навпаки. Воно вже фотореалістичне, з максимальною динамікою. Сьогодні можливості є, тому з додатковими засобами монтажу це вже можна зробити так, щоб не відрізнити.
Ситуація дуже сильно змінилася зараз. Ми ще побачимо, я думаю, це на практиці. Не так же й багато було якихось дипфейків разючих. Поки що не було, але я думаю, що вони з'являться.
ІМІ: Запитання банальне, але не можна його обійти в контексті цієї розмови. ШІ може замінити журналістів, принаймні в майбутньому?
Олексій Мінаков: Якщо ми говоримо про новини, то, в принципі, може замінити ту людину, яка безпосередньо їх пише. Якщо новина відбулася, про неї вже написали. ШІ може переосмислити, трансформувати багато різних джерел про цю саму новину і підготувати нову. Тобто про певну подію, якщо вже про неї писали інші сайти.
Але коли ми кажемо, наприклад, про розслідування, то й в майбутньому це буде журналістика особистості, журналістика людей. Однаково це будуть люди шукати, дивитися, визначати свою позицію, інтерпретувати. Тут ключове ж інтерпретація, а не розуміння.
Штучному інтелекту не вистачає розуміння фізичного світу поки що. Він може бачити в режимі реального часу в інтернеті, але не може бачити, що відбувається у фізичному світі просто зараз, цієї секунди. Це бачить людина, наприклад журналіст. Він прийшов на подію наприклад, побачив щось. Поки роботи не ходять вулицями, поки важко уявити, як тут машина може замінити людину.
ІМІ: Як тим часом ШІ впливає на розвиток медіа та роботу журналістів?
Олексій Мінаков: Найближчими роками, п'ять принаймні, я думаю, що ШІ – це точно про підсилення журналістів, про допомогу журналістам як інструмент, але не якась повноцінна заміна. За останні два роки цього буму, хайпу навколо ШІ жодної професії не зникло.
Зменшився попит на певні професії, на копірайтерів, на перекладачів, але професія нікуди не зникла. Однаково потрібна людина, яка буде якісно відчувати, перевіряти те, що зробила машина. Зараз уже є попит на людей, які перевіряють за машинним перекладом.
Тобто якісь трансформації, очевидно, будуть з журналістами, які вимагатимуть якихось нових, можливо, навичок, але загалом тут люди потрібні. Медіа рухатимуться в бік оптимізації, і журналістів буде кількісно менше, мені здається. Їм треба буде вміти працювати в колаборації із ШІ, за його допомогою вони зможуть продукувати більше ідей, створювати більше якісних текстів і загалом бути продуктивнішими.
ІМІ: Тобто повстання машин чекати зарано. Але ж це не означає, що ШІ наразі є безпечним?
Олексій Мінаков: З цього приводу є багато теорій, але жодної підтвердженої. Я б порекомендував більше фокусуватися на тих проблемах, які є сьогодні. Наприклад, поширення через системи штучного інтелекту стереотипів та міфів. Коли користувач просить згенерувати зображення мексиканців, вони обов'язково будуть у сомбреро. Якщо згенерувати людину з Індії, то завжди це буде якась літня людина, а якщо секретар, то переважно буде зображення жінки.
Або коли ми довіряємо системам дійсно занадто. Наприклад, коли перевіряють і оцінюють резюме кандидатів через ці системи, а потім виявляється, що оскільки система навчалася на більшості резюме чоловіків, то вона віддає перевагу, надає вищу оцінку чоловікам. Є вже такі проблеми в бізнесі, в різних сферах. Але про них менше говорять, ніж про якісь уявні загрози.
Тому слід пам'ятати, що в колаборації зі штучним інтелектом головну роль відіграє людина і лише від людини залежить формування завдань і цілей штучного інтелекту. Тобто від людей, зокрема журналістів, залежить, чи є ШІ корисним та безпечним інструментом.
Help us be even more cool!