Оновлено 25 вересня 2021 р. Компанія Apple призупиняє впровадження програми пошуку дитячого порно на пристроях своїх користувачів. Про це в прямому ефірі конференції NoNameCon повідомила директорка з кібербезпеки Electronic Fronteer Foundation Єва Галперін. Завдяки конструктивній критиці, яку зокрема координували представники EFF, корпорація Apple вирішила переосмислити свій підхід до програми та взяти паузу для більш детального вивчення пов’язаних із нею загроз приватності. NoNameCon ZDnet
Про намір компанії впровадити інструменти пошуку виробників та споживачів аб’юзерського контенту стало відомо минулого тижня і ця новина вже розділила людство на два табори. З одного боку ті, хто бачать у цьому нововведені великий потенціал захисту дітей від експлуатації у виробництві нелегального порно. З іншого боку ті, хто розгледів у діях компанії посягання на приватність користувачів, аж до закидів у намірах сприяти встановленню режимів тотального державного спостереження та решти антиорвелівського галасу. Як ви вже зрозуміли, я скоріше належу до першої категорії осіб, тому не буду удавати претензії на об’єктивність в огляді ситуації. Радше поясню логіку свого ставлення до неї.
По-перше, технологічне рішення, запропоноване Apple, виглядає оптимально в сенсі балансу безпеки та приватності. Звісно, тепер компанії буде важче удавати, що вона не в змозі сприяти розслідуванням правоохоронців. Легенда про те, що дані користувачів Apple захищені так добре, що навіть сама компанія не може отримати до них доступ, суттєво постраждає. Наступного разу коли ФБР вимагатиме розблокування айфона чергового терориста, контраргументи Apple звучатимуть вже не так голосно. Проте, так чи інакше, рано чи пізно, з допомогою виробника або без, федерали все одно отримують бажане. Тому, напевно, час вже змиритися: якщо ви не хочете, щоб слідчі отримали до чогось доступ, не тримайте це на смартфоні.
По-друге, щось робити з чайлд аб’юзерами все одно треба, й інші мегакорпорації вже давно діють. Facebook хоч і вимкнув аналогічну службу сканування зображень у Європейському Союзі, але на решту планети GDPR не поширюється, тому і європейський бан цієї технології теж.
По-третє, пошук виробників дитячого порно це та мета, заради якої треба буде поступитися частиною приватності, хоча б тому, що воно того варте. Але й з побічними ефектами треба попрацювати, тому моє питання скоріше не в тому, чи слід Apple та іншим вв’язуватись в подібний моніторинг, а в тому, як вони його реалізують.
І підхід Apple мені подобається, зокрема через такі моменти.
Перший, технічний: відбувається не аналіз вмісту, а його хешування та пошук хешів у базі відомого аб’юзерського контенту. Тобто, недержавна фундація NCMEC, створена з метою захисту дитинства, наповнює та систематизує базу даних перевірених цифрових артефактів, з якими відбувається порівняння. І не напряму, а через адаптивні нейрохеші, які змінюються більш-менш рівномірно зі зміною оригінальних зображень, але при цьому дозволяють не розкривати оригінали.
Другий, теж технічний: завдяки методу реалізації, хибні спрацювання алгоритму пошуку можливі з мізерною ймовірністю.
Третій: організаційний: всі спрацювання перевіряються вручну, і одиничні спрацювання нічого не означають. Тобто, якщо вас хтось спамить аб’юзерським контентом, кількох фоток для виникнення підозри буде недостатньо. Має накопичитись певна критична маса, лише тоді справі дадуть хід далі.
І останній, принциповий: при виникненні підозри, Apple не звертається до правоохоронних органів безпосередньо, а повідомляє про виявлений контент у NCMEC. Якщо у вас немає досвіду роботи з американськими нонпрофітами, я вас запевняю: це дуже зарегульовані сутності, які інертні та бюрократичні. Тому я практично не бачу шансів, щоб система спрацювала помилково – занадто багато зірок мають зійтися в одну лінію.
Тому я поки що ставлюся до цієї ініціативи скоріше схвально, ніж критично, і відмовлятися від техніки Apple не планую. А усі претензії колег та інших критиків розцінюю як звинувачення компанії Apple в тому, що вона не Silent Circle. Хоча вона ніколи цього не стверджувала.