ГАРЯЧА ЛІНІЯ(050) 447-70-63
на зв’язку 24 години
Залиште свої дані
і ми зв’яжемося з вами
дякуємо за звернення

Або ж зв’яжіться з нами:

[email protected]

(050) 447-70-63

Подай скаргу

Модератори контенту Facebook у Східній Африці заявили, що дописи про насильство їх травмували

Компанія, котра була підрядником Facebook для модерації контенту в Східній Африці, заявила, що шкодує про своє рішення взятися за цю роботу.

Про це повідомляє BBC.

Колишні працівники аутсорсингової компанії Sama в Кенії зазначили, що взаємодія з дописами про насильство їх травмувала. Дехто навіть подає до кенійських судів позови проти компанії.

Гендиректорка Sama Венді Ґонзалез заявила, що її фірма більше не братиметься за роботу, пов’язану з модерацією шкідливого контенту. Дехто з колишніх працівників стверджує, що їх травмував перегляд відео з відрубанням голів, самогубствами й іншим графічним контентом під час роботи в модераторському хабі.

Колишній модератор Денієл Мотонґ розповів ВВС, що перше неприйнятне відео, яке він побачив, було "живим записом того, як людині відрізають голову".

Мотонґ позивається проти Sama і Meta. Meta вимагає від усіх підрядників забезпечувати цілодобову підтримку компанії. Sama заявляє, що на місці роботи завжди присутні консультанти-психологи.

Ґонзалез повідомила ВВС, що більше не погоджуватиметься на пропозиції такої роботи (частка якої ніколи не перевищувала 4% усього бізнесу компанії).

Sama також працювала з OpenAI – компанією-розробником ChatGPT.

Один з працівників, Річард Матендж, котрий мав вичитувати величезні обсяги тексту, на яких навчався чатбот, і позначати всі шкідливі матеріали, у розмові з програмою BBC Panorama розповів, що йому довелося взаємодіяти з обурливим контентом.

У Sama стверджують, що скасували угоду, коли співробітники в Кенії заявили, що від них вимагають працювати з візуальним контентом, чого не передбачав їхній контракт. Ґонзалез зазначила: "Ми припинили цю співпрацю негайно".

OpenAI заявляє, що має власні "стандарти етики й добробуту" для авторів анотацій даних і "визнає, що ця праця є важкою для наших дослідників і авторів анотацій у Кенії й у всьому світі".

Втім, Ґонзалез розглядає таку роботу з ШІ як іще одну форму модерації – працю, за яку компанія більше не планує братися.

Як повідомляв ІМІ, OpenAI активно обстоює використання ШІ для модерації контенту, заявляючи, що в такий спосіб можна оптимізувати роботу соцмереж, прискоривши виконання деяких марудних завдань. Модерація контенту може стати марудною роботою для компаній на кшталт Meta, яка співпрацює з тисячами модераторів у всьому світі, щоб блокувати шкідливий контент на кшталт дитячої порнографії й зображень жорстокого насильства.



Liked the article?
Help us be even more cool!