Нейромережі в житомирській журналістиці: інструмент чи виклик?
Використання штучного інтелекту дозволяє журналістам автоматизувати рутинні процеси, допомогти в аналізі великих масивів даних, адаптувати контент відповідно до вподобань цільової аудиторії, а також перевіряти контент на наявність помилок.
Але попри велику кількість переваг використання генеративного ШІ становить певні загрози, включно з ризиками порушення авторських прав, поширення дезінформації і створення дискримінаційного контенту. Крім того, використання ШІ зменшує попит на унікальні вміння митців, оскільки спрощує процес створення контенту для широкого кола користувачів.
Наприкінці січня 2024 року Мінцифри разом з партнерами та профільними експертами розробило та оприлюднило рекомендації з відповідального використання штучного інтелекту в медіа.
Над документом працювала команда Мінцифри в співпраці з ГО "Лабораторія цифрової безпеки", а також представниками Експертного комітету з питань розвитку штучного інтелекту, профільних державних органів та громадських організацій.
Документ окреслює основні засади та принципи використання нейромереж, серед яких – прозорість використання систем ШІ, чітке розмежування авторського та згенерованого нейромережею контенту, пріоритет людського фактора під час створення матеріалів.
У документі пояснюється, як медіа повинні співпрацювати із системами штучного інтелекту, щоб уникнути ризиків. Розробники наголошують, що AI – це все ж інструмент у руках людини, який має свої недоліки, і наводять чітку інструкцію, на що варто звертати увагу під час вибору системи ШІ для роботи, а також як можна оцінити згенерований контент на етичність та правдивість.
Досвід журналістів Житомирської області
Ми запитали в представників ЗМІ Житомирської області, наскільки часто вони використовують нейромережі у своїй роботі і якими принципами керуються. В опитуванні взяли участь редактори як великих, так і не дуже локальних медіа.
Дмитро Клименко, головний редактор Житомирської філії Суспільного (м. Житомир)
"Суспільне Житомир" у своїй роботі використовує певні сервіси штучного інтелекту, зокрема ми використовуємо сервіси для розшифрування відео в текстовий формат. На сьогодні в нас затверджено принципи використання штучного інтелекту для всіх структур Суспільного Мовлення, і ми використовуємо штучний інтелект виключно в межах цих принципів.
Коли ми розшифровуємо відео за допомогою штучного інтелекту, в обов'язковому порядку редактор і автор відеоматеріалу перевіряють і вичитують повністю матеріал, розшифрований штучним інтелектом. І в роботі, яку ми потім оприлюднюємо, в матеріалі, ми зазначаємо, що цей матеріал був розшифрований з відеоформату в текстовий формат за допомогою штучного інтелекту".
Марина Кондратюк, головна редакторка інтернет-видання "Твій Романів"
(с-ще Романів)
"Я не використовую. Вважаю, що справжня журналістика не може бути пов'язана із ШІ. Адже журналіст має бути переконаним на 300% у кожному слові, зображенні тощо. Вміти бачити контекст, загальну картину ситуації, весь комплекс обставин. Значно простіше і швидше зробити роботу самій, ніж перевіряти все написане ШІ. Та й для саморозвитку краще працювати самому, дізнаватися, вивчати, ніж покладати обов'язки на ШІ".
Інна Попова, головна редакторка газети "Лесин край" і сайту "Новоград.City"
(м. Звягель)
"Для генерування картинок ШІ просто незамінна штука, бо часто знайти ілюстрацію до тексту – ще той квест. А так, завантажуєш текст і отримуєш картинку. Це реально виручає".
Тамара Коваль, головна редакторка інтернет-видання "Житомир.інфо"
(м. Житомир)
"Спеціальних редакційних у нас правил немає, іноді на заставку беремо згенеровані ШІ картинки (без людей). Іноді використовуємо програми із ШІ для розшифрування інтерв'ю, але треба бути уважними: я особисто під час останнього використання помітила дописане речення, яке людина точно не говорила, але програма вирішила, що воно за змістом підійде".
Михайло Мельник, редактор газети "Народна Трибуна" (с-ще Ємільчине)
"У нашій редакції працівники "60+" не користуються ШІ. Але цей сервіс стає дедалі необхіднішим у роботі. Нам, наприклад, допоміг у формуванні однієї із заявок на проєкт: генерував ідеї активностей. Часто використовуємо для "придумування" заголовків, підписів під фото, роботи з текстами (на грамотність). Відчуваю, що експлуатуємо ШІ дуже мало, треба вчитись. Про рекомендації чули, але ШІ мало використовуємо, тож до них і не звертаємось. Тому й редакційні правила поки не сформульовано".
Діана Мінаєва, головна редакторка інтернет-видання "Times.zt"
(м. Житомир)
"Звісно, ми користуємося в роботі ШІ. Але досить обмежено. Іноді генеруємо фото, але зрідка, віддаємо перевагу "живим". Хороша штука для переписування нудних релізів, але текст доводиться редагувати. Загалом він не надто добре знає українську, часто бреше. Тож про генерування там якогось контенту не йдеться. Але як допоміжний інструмент цілком ок. Наприклад, допоможе із заголовками до конкретного тексту. Заголовки в нього не дуже, але як ідеї виручають. Допомагає у створенні якихось замальовок, нейтральних текстів, типу про природу, погоду і т. д. Тексти погані й не дуже грамотні, але знову ж таки як ідею можна щось використовувати. Звісно, довідкова інформація, технології, він підкаже. Але не варто питати про якісь історичні події і тим більше просити про новинний контент – набреше. Тож, думаю, заяви про те, що ШІ замінить живих людей, поки дещо перебільшені. Хіба що наші читачі зовсім перестануть читати та думати".
ШІ та фейки
Отже, журналісти Житомирської області не надто активно використовують ШІ, віддаючи перевагу "людському" контенту. Зважаючи на скарги журналістів щодо точності генерованої інформації, ми вирішили з’ясувати, чи може використання ШІ стати причиною масового поширення неправдивої інформації.
Старша аналітикиня фактчекінгового проєкту VoxCheck Єлизавета Чеховська зазначила, що наразі їй невідомі випадки, коли використання ШІ в професійній журналістиці сприяло масовому поширенню фейків.
"Якщо ж ми говоримо про псевдожурналістику, як-от про створення видань для навмисного поширення дезінформації, ситуація інакша. Згідно з даними NewsGuard, організації, що відстежує дезінформацію, у 2024 році значно збільшилася кількість вебсайтів, на яких розміщено неправдиві матеріали, створені за допомогою ШІ, – якщо у 2023 році організація виявила 49 таких сайтів, то цього року їх уже 794. Водночас дезінформація, яку поширюють на подібних сторінках, націлена на різні країни та часто є частиною пропаганди авторитарних держав, як-от росії або Китаю", – зазначила Єлизавета Чеховська. Водночас фахівчиня розповіла про використання ШІ в боротьбі з дезінформацією.
"Уже існують інструменти, які використовують штучний інтелект для виявлення фейкових новин, відредагованого контенту (до прикладу, зображення та відео), а також контенту, створеного за допомогою ШІ. Однак штучний інтелект досі не настільки ж вправний у цьому, як люди, – після отримання вердикту від ШІ здебільшого потрібна додаткова перевірка людиною, щоб визначити, чи результат аналізу є правдивим", – зазначила Єлизавета Чеховська.
Правові аспекти використання ШІ
Як ми вже зазначали, журналістам варто маркувати згенеровану нейромережею інформацію, попереджаючи свою аудиторію, що контент створила не людина. Але в разі поширення плагіату або недостовірної інформації медіа відповідатиме, навіть якщо матеріал промарковано, оскільки той же чат-бот не є суб'єктом права.
Медіаюрист Роман Головенко застерігає: якщо якимось чином вийшло, що такий згенерований текст поширює інша особа, то в неї теж виникає ризик відповісти за зміст такого тексту, адже, за Цивільним кодексом України, "фізична особа, яка поширює інформацію, зобов'язана переконатися в її достовірності" (ч. 2 ст. 302).
"Поки що я не бачив якихось серйозних претензій від авторів щодо плагіату їхніх текстів у результатах, згенерованих ШІ, які б висувалися до тих, хто скористався штучним інтелектом, хоча були претензії до самого факту використання авторських текстів для створення ШІ вже свого продукту. Коли він генерує текст, то бере найпоширеніший чи один з найпоширеніших наративів щодо поставленого питання, тобто в цих результатах немає унікальності, а отже й не можна вести мову про порушення авторського права. Проте треба бути обережним, коли ШІ дається завдання знайти, обробити й сформулювати якусь унікальну, рідкісну інформацію (наприклад, про якесь маленьке село в інтернеті є інформація лише в одному джерелі). В таких випадках я б результат роботи ШІ перевіряв на плагіат. Претензії (зокрема, через суд) можуть бути висунуті як тому, хто створив конкретний ШІ (тобто механізм, який, можливо, видав сплагіачений текст чи недостовірну інформацію про когось), так і користувачеві – тому, хто поширив текстовий результат роботи ШІ, до якого є претензії з т.з. авторського права чи достовірності. Тому на достовірність згенерований ШІ текст я б перевіряв завжди (хіба б у ньому не було жодних фактів і самі оцінкові судження). Оскільки текст створюється ШІ, але розповсюджує його для аудиторії конкретний журналіст і медіа, це завжди їхнє рішення і завжди їхня відповідальність – яку інформацію поширювати. Тому тут не можна перекласти відповідальність за недостовірність поширеної інформації на ШІ", – зазначив Роман Головенко.
Отже, підбиваючи підсумки, можна сказати, що житомирські медійники не використовують нейромережі повною мірою, віддаючи перевагу матеріалам, створеним або опрацьованим людьми. Втім, навіть у такому разі варто дослухатися до порад медіаекспертів щодо використання штучного інтелекту: оцінювати ризики, відповідально ставитися до згенерованого контенту та маркувати тексти та ілюстрації, створені штучним інтелектом.
Оксана Трокоз, представниця Інституту масової інформації в Житомирській області
Help us be even more cool!