ГАРЯЧА ЛІНІЯ
на зв’язку 24 години
Залиште свої дані
і ми зв’яжемося з вами
дякуємо за звернення

Або ж зв’яжіться з нами:

info@imi.org.ua

050 447 70 63

Підтримати ІМІПодай скаргу

Apple посилює захист дітей від насильства, але приватні фото не переглядатимуть

16.08.2021, 14:50
Фото - Reuters
Фото - Reuters

Старший віцепрезидент Apple з розробки програмного забезпечення Крейг Федерігі пояснив ситуацію щодо анонсованої функції посилення захисту дітей від насильства. Він зазначив, що ніхто не переглядатиме приватні фото користувачів на наявність там дитячої порнографії. Плутанина сталася через анонс введення двох окремих нових функцій.

Про це Федерігі заявив в інтерв'ю виданню Wall Street Journal, передає hromadske.

Зокрема, компанія готує введення двох інструментів: функції визначення контенту із сексуальним насильством над дітьми у хмарному сховищі iCloud та функції, яка відповідає за сповіщення батьків про отримання та надсилання фотографій сексуального характеру з пристрою дитини.

Так, перший інструмент може ідентифікувати вже відомі матеріали про сексуальне насильство над дітьми (CSAM). Ця функція працюватиме тільки щодо фотографій, які завантажуються в iCloud. Тобто, якщо власник iPhone відключає завантаження фото у хмарне сховище, захисна функція автоматично вимикається.

Окрім того, саме фото перевірятимуть на збіг так званих відбитків нелегальних фото. Національний центр США у справах безвісти зниклих та експлуатованих дітей (NCMEC) веде базу даних відомих незаконних зображень жорстокого поводження з дітьми. Ці дані зберігають саме у формі цифрових «відбитків» нелегального матеріалу.

Наразі вже кілька великих платформ ㅡ Facebook, Google та Microsoft ㅡ перевіряють зображення на відповідність цим даним, щоб переконатися, що люди не поширюють CSAM.

Apple вирішила впровадити подібний процес, але заявила, що спершу зробить відповідність зображень на iPhone або iPad користувача, перш ніж завантажити його в iCloud.

Федерігі заявив, що компанія не буде перевіряти в iPhone фотографії користувачів на кшталт дітей у ванні або шукати порнографію. Система шукатиме саме відповідність із цифровими «відбитками». Якщо такі знайдуться ㅡ акаунт користувача позначать, щоб можна було переглянути конкретні зображення на пристрої. Але перед тим, як це все ж таки зроблять, користувач має завантажити приблизно 30 таких фото.

Інша функція, яку вводить Apple, стосується фільтрації повідомлень. Зокрема, це буде «батьківський контроль», який користувачі можуть активувати в облікових записах своїх дітей.

Ця функція дозволить перевіряти фотографії, надіслані дитиною або дитині, через додаток Apple iMessage. Якщо на фото у повідомленні буде розпізнано голе тіло, його автоматично «розмиють» і з'явиться відповідне попередження. Якщо дитина натисне «переглянути» таке фото, батьки отримають про це сповіщення.

Першим про плани Apple ввести нові функції повідомило видання Financial Times. Там зазначили, що нова система може допомогти правоохоронним органам у розслідуванні кримінальних справ, але й водночас може відкрити шлях до збільшення юридичних і державних вимог щодо даних користувачів. А за кілька годин це підтвердили в самій компанії.

А втім, у відповідь компанія отримала хвилю критики: від користувачів, посадовців та навіть власних співробітників.

Співробітники Apple заполонили внутрішній канал Apple Slack більш ніж 800 повідомленнями щодо плану ввести нові функції. Багато хто висловлював занепокоєння, що ця функція може бути використана репресивними урядами, які прагнуть знайти інший матеріал для цензури або арештів неугодних.

Одним із головних критиків цих нововведень виступив професор криптографії з університету Джонса Хопкінса Меттью Грін. Зокрема, він назвав нові можливості «небезпечним прецедентом, що створює технології стеження, якими можуть скористатися уряди».

Раніше компанія Apple видалила з платформи Apple Store мобільний застосунок Unjected для знайомства та спілкування противників вакцинації.

 
Сподобалася стаття? Допоможи нам бути ще крутішими!