Шведські та кенійські журналісти виявили порушення приватності та прозорості в роботі розумних окулярів Ray-Ban від Meta: дані користувачів, зокрема чутливі відео й розмови, аналізуються для навчання ШІ без чітких пояснень і можливості повної відмови.

Розслідування провели шведські медіа Svenska Dagbladet і Göteborgs-Posten спільно з кенійською журналісткою Найпаною Лепапою. Вони зосередилися на тому, як компанія Meta збирає, зберігає та використовує дані користувачів окулярів, йдеться в матеріалі, опублікованому на сайті Svenska Dagbladet.

Так, журналісти поспілкувалися з кількома співробітниками кенійської компанії Sama (підрядника Meta), які займаються анотуванням даних для навчання штучного інтелекту. Ці люди є “чорноробами ШІ-революції”, пояснюють журналісти: вони навчають системи ШІ розпізнавати й інтерпретувати світ, малюючи комірки навколо обʼєктів, реєструючи пікселі й підписуючи предмети на відео, знятих розумними окулярами Meta.

Співробітники Sama на умовах анонімності розповіли, що їм некомфортно щодня виходити на роботу, адже на відео, які надходять від людей, що мешкають на Заході й використовують розумні окуляри в повсякденному житті, трапляється дуже особиста інформація: від реквізитів банківських карток до відвідування вбиральні або заняття сексом.

“Ми бачимо все: від віталень до оголених тіл. Meta має такий контент у своїх базах даних. Дехто може зняти себе небажаним чином і навіть не знати, що ведеться запис”, – кажуть працівники Sama.

Також вони розшифровують розмови користувачів із вбудованим в окуляри ШІ. Теми цих розмов, за їхніми словами, теж бувають доволі ризикованими: від злочинів і протестів до сексуальних фантазій.

Журналісти відвідали кілька магазинів техніки в Стокгольмі й розпитали тамтешніх консультантів: багато з них не знали, які саме дані експортуються під час використання окулярів, де вони зберігаються і як опрацьовуються аудіо- й відеоматеріали від користувачів. Дехто стверджував, що всі дані “зберігаються локально в застосунку”, – втім досвід журналістів показав, що це не так.

Придбавши пару окулярів і провівши експеримент, журналісти зʼясували, що взаємодіяти із ШІ неможливо без обміну даними із серверами Meta. Зокрема, робота ШІ-асистента передбачає опрацювання голосових записів, тексту, зображень і відео – причому це опрацювання відбувається автоматично, і користувач не може від нього відмовитись.

У своїй політиці використання ШІ Meta радить користувачам не ділитися з компанією інформацією, “якщо ви не хочете, щоб моделі ШІ використовували й зберігали її, зокрема інформацією на чутливі теми”. Водночас компанія не уточнює, скільки даних користувачів вона аналізує, як довго зберігає їх і хто саме отримує доступ до цих даних.

Журналісти неодноразово намагалися звʼязатися з представниками Meta й розпитати їх про те, як компанія інформує користувачів про роботу окулярів, які фільтри застосовуються для запобігання обміну приватними матеріалами з анотаторами, як довго зберігаються записи голосу й відео, як споживач на практиці може відмовитися від використання своїх даних тощо.

Два місяці по тому їм надійшов лист від речниці Meta в Лондоні, який не містив прямих відповідей і натомість пояснював, як дані передаються з окулярів у мобільний застосунок користувача.

Журналісти зверталися до Meta і Sama, щоб уточнити, як обмін чутливими матеріалами з підрядниками на кшталт Sama узгоджується з політикою приватності Meta, але не отримали відповіді від жодної з компаній.

Керівник Meta в Європі на умовах анонімності заявив, що не має значення, де саме опрацьовуються дані, якщо правила захисту даних у цій країні аналогічні європейським. Водночас ЄС іще не визнав Кенію країною, яка надає задовільний рівень захисту.

Віденська юристка Клеанті Сарделі, що спеціалізується на захисті даних, вважає, що окуляри є проблемними з погляду прозорості, адже користувачі можуть не усвідомлювати, що камера веде запис, коли починають розмову із ШІ-асистентом.

“Якщо це відбувається в Європі, то і прозорість, і законні підстави опрацювання є незадовільними”, – зауважує вона. Експертка вважає, що використання даних для навчання штучного інтелекту має відбуватися лише за чіткої згоди споживача.

Петтер Флінк, фахівець із кібербезпеки в IMY (шведському органі захисту приватності), у розмові з журналістами наголосив, що зібрані дані є ціннішими за самі окуляри: що більше деталей про повсякденне життя споживача компанія дізнається, то краще може таргетувати на нього рекламу й послуги.

“Думаю, мало хто хотів би ділитись аж такою кількістю подробиць про своє життя. Та коли це представлено в розважальний і привабливий спосіб, побачити ризики стає складніше”, – зазначає він.