Posted 9 января 2020, 16:46

Published 9 января 2020, 16:46

Modified 7 марта, 15:11

Updated 7 марта, 15:11

Apple отсканирует все фотографии в iCloud в поисках детской порнографии

9 января 2020, 16:46
Сюжет
Насилие
Сканирование всех фотографий, хранящихся в облаке iCloud, компания Apple осуществляет для поиска изображений сексуального насилия.

Об этом сообщила директор по вопросам конфиденциальности Джейн Хорват, пишет The Insider.

По ее словам, информацию облачного сервиса уже проверяют специальные программы в автоматическом режиме. Это делается в том числе для борьбы с распространением детской порнографии, говорится в заявлении представителя компании.

The Telegraph предполагает, что Apple использует программу Microsoft - PhotoDNA. Она сравнивает фото с базой данных изображений, которые ранее уже были идентифицированы.

Причем, еще пять лет назад сообщалось, что Microsoft сделал приложения на основе технологии распознавания лиц PhotoDNA доступным для скачивания в облаке.

Сообщалось, что PhotoDNA помогает правоохранительным органам, а также интернет-провайдерам бороться с распространением фото, на которых изображены сцены с сексуальным насилием над детьми. Программа распознает фотографию, даже если был изменен ее размер или добавлен новый графический элемент. Релиз Microsoft давал возможность скачать приложение из облачного хранилища и работать с ним бесплатно.

Ранее об использовании этой технологии сообщали также Facebook и Twitter. По информации Microsoft, с помощью PhotoDNA удалось выявить и удалить из сети миллионы нелегальных изображений.

Подпишитесь