Компания Apple объявила, что в грядущих обновлениях для iPhone, Mac и Apple Watch будет внедрена система сканирования изображений и зашифрованных сообщений на предмет сексуального насилия над детьми (Child sexual abuse materials, CSAM).
Речь лишь об устройствах владельцев из США, уточняет ВВС.
Перед загрузкой фото в iCloud Photos инструмент neuralMatch будет сканировать его на совпадение с уже известными изображениями сексуального насилия над детьми. Если совпадение будет обнаружено – изображение просмотрит живой человек. В случае подтверждения факта детской порнографии или насилия – учетную запись пользователя заблокируют и проинформируют правоохранителей.
Будут фиксироваться только фото, которые уже есть в базе данных Национального центра США по вопросам пропавших без вести и эксплуатируемых детей. Система также должна выделять отредактированные, но похожие версии оригинальных изображений.
Компания заверяет, что технология является чрезвычайно точной, а вероятность ошибочно определить запрещенный контент – около 1:1 000 000 000 000 (триллион) в год. Поэтому "родителям, которые делают невинные фотографии своего ребенка в ванной, пожалуй, не надо беспокоиться".
Отдельно Apple планирует сканировать зашифрованные сообщения пользователей на предмет откровенного сексуального содержания. Это тоже подается как мера для повышения детской безопасности.
Специалисты по кибербезопасности критически встретили запланированные нововведения. Компания создает опасный прецедент, добавляя в персональные устройства систему мониторинга и передавая контент в правоохранительные органы.
По их мнению, алгоритм вполне можно использовать для обвинения невиновных людей, отправляя им, казалось бы, безобидные изображения. Также это дает теоретическую возможность властным институтам следить за гражданами, а также выделять диссидентов или протестующих.
Напомним, в этом году Apple открыла официальный офис в Украине.