Apple намерена сканировать фотографии в iPhone без ведома пользователей. Что будет искать
Фото: ЕРА

Apple объявила, что в следующих обновлениях iOS и iPadOS будет добавлена система поиска материалов о сексуальном насилии над детьми (CSAM) на устройствах клиентов из США. Об этом пишет ВВС.    

Прежде чем изображение будет сохранено в iCloud Photos, технология выполнит поиск совпадений с уже известными изображениями насилия. Если совпадение будет найдено, о пользователе сообщат в правоохранительные органы. 

Подписывайтесь на LIGA.Бизнес в Facebook: главные бизнес-новости

Система работает путем сравнения изображений с базой данных Национального центра США по пропавшим и эксплуатируемым детям (NCMEC) и других организаций по безопасности детей. 

Изображения из баз данных переводятся в числовые коды, которые можно сопоставить с изображением на устройстве Apple. 

В компании заявляют, что технология также будет улавливать отредактированные, но похожие версии исходных изображений. А также, что у системы чрезвычайно высокий уровень точности и вероятность ошибиться в неправильном определении запрещенного контента составляет один на триллион в год.

Более того, Apple будет вручную проверять каждый отчет, чтобы подтвердить совпадение и только после этого сообщать в правоохранительные органы. 

Нововведение вызвало критику со стороны большого числа экспертов по безопасности, указывает ВВС. 

По их мнению, создается прецендент инсталляции в персональные гаджеты систем мониторинга контента пользователя и передачи этого контента в правоохранительные органы.  

Не исключено, что авторитарные правительства в обозримом будущем могут требовать от производителей инсталлировать в гаджеты похожие системы сканирования для слежки за своими гражданами. 

Подписывайтесь на LIGA.Бизнес в Telegram: только важное