Безопасна ли новая функциональность Apple? +2


Рассмотрим потенциальные угрозы, которые несёт в себе новая технология Apple по блокировке нежелательного медиа контента. Изучим, какие методы используют другие компании для решения подобных задач. Оценим правовые последствия для владельцев устройств.

Введение

5 августа 2021 года, на брифинге Apple, сотрудники компании сделали заявление о том, что будут сканировать устройства пользователей на предмет наличия запрещённого контента. Подобное заявление они аргументировали озабоченностью компании в противодействии распространению медиаконтента с насилием над детьми и детской порнографией. Эти действия вызвали волну негативных откликов пользователей продукции компании, которые заподозрили её в нарушении основополагающих общественных свобод, таких, как: тайна личной жизни и конфиденциальности сообщений, гарантированных Конституциями многих стран, и в потенциальном нарушении приватности своих устройств. Насколько новый функционал, реализуемый Apple, безопасен для пользователей? Мы постараемся дать ответы на эти вопросы в этой статье.

Что говорит Apple?

Конечно же, после подобных заявлений, компания немедленно получила порцию жесткой критики в свой адрес. И практически сразу, на волне неутихающего хейта в свой адрес, выпустила документ «Expanded Protections for Children Frequently Asked Questions», в котором описано: как данная технология будет реализована.

Основными тезисами документа являются следующие заверения пользователей:

  • утверждается, что никакие данные не будут передаваться в правоохранительные органы;

  • сканированию будут подвергнуты не сами устройства пользователей, а только мультимедиа - файлы, находящиеся в резервных копиях в облачном хранилище iCloud, и файлы, передаваемые с помощью iMessage;

  • в Siri и Search будут встроены соответствующие механизмы, препятствующие поиску контента, содержащего детскую порнографию и сцены насилия над детьми;

  • заявленный функционал не работает с отключенной функцией iCloud Photos и не сканирует мультимедиа - файлы, находящиеся на устройстве;

  • утверждается, что вероятность ложного детектирования крайне низка;

  • переписка в iMessage остаётся такой же безопасной. Никто не получит доступ к сообщениям, которыми обмениваются пользователи;

  • компания заверяет пользователей, что никакие нелегальные изображения не будут загружены на их устройства в качестве образцов сравнения (прим. автора: это соответствует логике работы алгоритма PhotoDNA, речь о котором пойдёт ниже).

Компания видит два основных пути использования новой технологии:

  • для детей до 12 лет. При получении изображения, детектированного операционной системой как нежелательное, оно будет представлено в размытом виде. После чего, ребёнку будет предложено сделать выбор: просмотреть присланное изображение или отклонить его. В случае, если ребёнок выберет просмотр изображения, то об этом будут уведомлены его родители или опекуны.

  • для подростков в возрасте от 13 до 17 лет: будет показано размытое изображение, которое они смогут, по желанию, либо просмотреть, либо отвергнуть. Родители и опекуны о данном действии уведомляться не будут.

Таким образом, владельцам устройств Apple предлагается не волноваться.

Конфиденциальность устройств будет сохранена. Никто из посторонних не получит доступ к данным, находящимся на устройстве или переписке, передаваемой посредством iMessage. Никто не загрузит нелегальные мультимедиа файлы на устройства пользователей и потом их там не обнаружит.

Возможности PhotoDNA

Технология противодействия распространению нелегального мультимедиаконтента известна достаточно давно и широко применяется в западных странах. В основе этого лежат два фактора:

  1. В силу того, что в ряде западных стран действует прецедентное право, изображение или видео, признанное судом хотя бы раз нелегальным контентом, автоматически признается таковым и во всех последующих случаях его обнаружения.

  2. В ряде стран существует суровая уголовная ответственность не только за распространение подобного контента, но даже и за его хранение.

Как бы это не показалось нелепым, в силу вышеуказанных двух причин, при задержании бандитов, убийц, насильников и других криминальных лиц, на их устройствах, в первую очередь, полицейские начинают искать не доказательства их преступлений, а нелегальный медиаконтент. В случае обнаружения подобного, работа полиции с задержанными серьёзно облегчается, а защитников соответственно усложняется.

Первоначально, для поиска подобного контента, использовался метод поиска по хэшам. Для всех файлов, находящихся на устройствах задержанного, рассчитывались значения хэш сумм (эти значения уникальный для каждого файла), которые сравнивались с базой хэшей нелегального медиаконтента. Подобные базы данных, называемые «Hash Sets» (базы хэшей), ведутся и поддерживаются уполномоченными учреждениями (например, в США- это National Software Reference Library). Так как по значению хэш нельзя восстановить исходный файл (с нелегальным контентом), базы данных таких хэшей находятся в свободном доступе и доступны не только полицейским, но и любому пользователю сети «Интернет». Использование подобных наборов хэшей интегрировано в любой мало-мальски продвинутый инструмент для криминалистического исследования компьютерных носителей информации.

Однако, у этого метода есть один серьёзный недостаток: изменение буквально одного байта в исходном файле приводит к тому, что файл будет иметь новое значение хэша и, поэтому, криминалистические программы такое модифицированное изображение не будут детектировать как нелегальный контент. Этим обстоятельством не преминули воспользоваться распространители подобного контента.

Для противодействия этому моменту, подразделением компании Microsoft - Microsoft Research и Хани Фаридом (Hany Farid), был разработан метод, называемый PhotoDNA, который позволяет купировать указанный недостаток. Суть метода заключается в том, что исходное нелегальное изображение сегментируется и преобразуется. Для каждого сегмента создаются свои уникальные хэш, которые, в совокупности, образуют уникальный паттерн для изображения, что позволяет идентифицировать даже изменённое нелегальное изображение, подвергнутое: изменению размера, обрезке краёв изображения, изменению яркости/контрастности изображения и т.п.

Данная технология широко используется в сервисах компании Microsoft (Bing и OneDrive) и иными интернет-гигантами (Gmail, Twitter, Facebook, Adobe Systems, Reddit, NCMEC и т.д.) для автоматического удаления нелегального контента. Компания Microsoft предоставляет доступ к этой технологии на безвозмездной основе.

Несмотря на то, что компания Apple не раскрывает детали, скорее всего, технология детектирования нелегального медиаконтента, которую будет применять компания, является некоей производной от технологии PhotoDNA (или прямо ей же).

Риски применения функционала от Apple

Опыт использования PhotoDNA мировыми интернет-гигантами составляет около 10 лет. При этом, общественность не слышала о громких скандалах, связанных с раскрытием данных владельцев большого количества нелегального контента. Это оставляет надежду на то, что и владельцы устройств Apple, в случае обнаружения на их устройствах нелегального контента, не будут подвергнуты судебному преследованию, а компания ограничится технической блокировкой (или банальным удалением) подобного контента. Это же утверждают и сами сотрудники Apple, говоря, что «…подобные сведения не будут передаваться в правоохранительные органы».

Если это будет происходить именно так, как заявляется, то происходящее вызывает легкое недоумение, так как затрачиваемые силы и средства явно не соответствуют результату, который планируется получить.

С другой стороны, можно однозначно утверждать, что функции поиска подобного контента будут интегрированы непосредственно в операционные системы компании Apple: iOS, MacOS, WatchOS и iPadOS. Это, в случае изменения политики компании, а мы видим, что это происходит в настоящее время, приведёт к последствиям, которые, в настоящее время, невозможно предугадать. Например, если у владельца устройства сейчас будет обнаружен нелегальный контент, а в последующем (через несколько лет) результаты сканирования будут переданы в правоохранительные органы, не приведёт ли это к уголовному преследованию владельца устройства? Скорее всего приведёт, так как подобное преступление, в ряде стран, относится к тяжким преступлениям. Не ограничит ли это свободу передвижения владельца устройства (ведь он не сможет въехать на территорию США и ряда других стран, где за подобные действия предусмотрена уголовная ответственность)? Не попадёт ли под суд лицо, купившее с рук бывший в употреблении iPhone, на котором ранее находился нелегальный контент? Кого будут привлекать к ответственности, если нелегальный контент будет обнаружен в облачном хранилище (iCloud Photo Sharing) доступном нескольким владельцам устройств Apple? К сожалению, ответы на эти вопросы на сегодня дать нельзя. Можно только следить за развитием ситуации.

Заключение

Анонсирование компанией Apple функции детектирования и блокировки распространения медиаконтента с насилием над детьми и детской порнографией конечно же стоит всячески приветствовать. Надо чётко понимать, что другие Интернетгиганты (Microsoft, Google и т.д.) уже давно используют подобный функционал для автоматической блокировки и удаления подобного контента в своих сетях и на своих серверах. Тем не менее, в силу ряда причин, компания Apple является особым игроком на рынке и предоставляет своим покупателям полную экосистему устройств и сервисов, механизмы блокировки, реализуемые компанией, пока вызывают вопросы как в плане возможной технической реализации, так и в плане возможных правовых последствий для владельцев устройств, содержащих нелегальный контент, владельцев, имеющих доступ к определённым облачным папкам в iCloud или покупателей устройств, на которых ранее такой контент находился. Предсказать: насколько далеко компания зайдёт в своём стремлении борьбы с распространением нелегального медиа контента, пока невозможно.




К сожалению, не доступен сервер mySQL