Apple будет просматривать все фото в iCloud. Всё ради защиты детей

10 января 2020, 12:33
Apple будет просматривать все фото в iCloud. Всё ради защиты детей
Reuters
Компания Apple теперь применяет новые технологии для сканирования всех изображений в iCloud. За изображения с насилием над детьми или детским порно пользователя ждёт блок учётки.

На CES 2020 не только Amazon анонсировала новые функции у своего гаджета, колонки Alexa. Компания Apple заявила, что теперь все фотографии, которые пользователи загружают в iCloud, будут сканироваться.

По словам Джейн Хорват, директора по конфиденциальности Apple, цель у этого благая — компания использует технологию распознавания контента для поиска нелегальных изображений, в частности, детской порнографии и жестокого обращения с детьми. В случае обнаружения такого контента на своих серверах компания будет удалять его, а учётные записи блокировать.

Какие технологии используются для распознавания изображений, представители не уточнили. Однако на сайте указано, что система работает как спам-фильтр в электронной почте, и каждый случай будет рассматриваться отдельно.

Возможно, Apple использует программу Microsoft — PhotoDNA или аналогичную ей. Она проверяет изображения по базе данных ранее идентифицированных шаблонов. Распознать, в данном случае, сцены насилия над детьми, она может, даже если изображение было отредактировано: ни изменение размера, ни добавление графических элементов не помогут. Эту технологию уже используют Facebook, Twitter и Google.

В 2018 Apple в борьбе за безопасность детей блокировала не пользовательские учётки, а приложение Tumblr.