Регион

Уведомления отключены

Страница не загружается? Возможно:
1. Низкая скорость интернета - проверьте интернет-соединение
2. Устарела версия браузера - попробуйте обновить его
Тем временем:

Проследят за каждым: Россия может запретить продажу iPhone из-за новшества Apple

Алгоритм проверки фотографий на устройствах клиентов сначала будет протестирован в США, и, если всё получится, его применят везде. В России из-за этой программы iPhone могут запретить.

8 августа, 21:40
16422
<p>Фото © Shutterstock</p>

Фото © Shutterstock

Локальная проверка данных на каждом iPhone

Издание Financial Times и специалист по криптографии Мэтью Грин сообщили, что Apple разработала новую программу проверки фото на предмет запрещённого контента. По данным FT, алгоритм называется NeuralMatch и устроен крайне просто — система анализирует каждую фотографию и видео на устройстве и в случае появления подозрений "помечает" подозрительный кадр специальным маркером. Когда подозрительных кадров накопится несколько, Apple расшифрует их, изучит и при необходимости обратится в правоохранительные органы.

Пока подозрительных файлов не накопилось "достаточно", NeuralMatch будет сканировать данные пользователя локально, не станет их расшифровывать и передавать третьим лицам. Сам пользователь о цифровом досмотре не узнает — нейросеть обучили распознаванию насилия в фоновом режиме. "Натаскивали" программу на базе данных из 200 тыс. изображений, предоставленных Национальным центром поиска пропавших и эксплуатируемых детей США.

Разработчик айфонов пока хранит молчание и не делает никаких заявлений по этому поводу, не опровергая и не подтверждая утечку информации. Однако криптографы, специалисты по сквозному анализу и юристы уже отмечают, что с помощью этого инструмента Apple может получить доступ ко всем устройствам на планете, а куда фотографии будут попадать после обработки и где будут храниться оригинальные изображения, пользователь рискует не узнать никогда.

Заместитель руководителя Лаборатории компьютерной криминалистики Group-IB Роман Резвухин пояснил, что Apple уже предоставили описание технологии — некая метрика изображения пользователя (её назвали NeuralHash) будет сопоставляться с "эталонными" метриками на серверах Apple. При этом вычисление метрики будет происходить локально — сами фотографии в этот момент передаваться на серверы не будут.

Если при расшифровании метрик (не самих фотографий) подтвердится, что аккаунт действительно подозрителен и связан с распространением детского порно, то Apple сможет расшифровать загруженные в iCloud фотографии с последующей передачей их для дальнейшего анализа. Из этого следует вывод: если ничего не загружено в iCloud, то ничего и не будет проверено. По крайней мере, так заявляют в Apple

Роман Резвухин

Заместитель руководителя Лаборатории компьютерной криминалистики Group-IB

<p>Если при расшифровании метрик (не самих фотографий) подтвердится, что аккаунт действительно подозрителен и связан с распространением детского порно, то Apple сможет расшифровать загруженные в iCloud фотографии с последующей передачей их для дальнейшего анализа. Из этого следует вывод: если ничего не загружено в iCloud, то ничего и не будет проверено. По крайней мере, так заявляют в Apple</p>
<p>Если при расшифровании метрик (не самих фотографий) подтвердится, что аккаунт действительно подозрителен и связан с распространением детского порно, то Apple сможет расшифровать загруженные в iCloud фотографии с последующей передачей их для дальнейшего анализа. Из этого следует вывод: если ничего не загружено в iCloud, то ничего и не будет проверено. По крайней мере, так заявляют в Apple</p>

Айфон ваш, но не совсем

Фото © Jens Büttner / picture alliance via Getty Images

Фото © Jens Büttner / picture alliance via Getty Images

Apple внесла первые глобальные изменения в политику конфиденциальности ещё в 2019 году. Тогда в соглашении для пользователя появился пункт о возможном сканировании изображений на предмет детского насилия. Ещё через год в рамках CES 2020 старший директор по приватности Apple Джейн Хорват заявила, что Apple успешно сканирует фотографии в iCloud на предмет насилия над детьми.

В лицензионном соглашении на самую новую iOS14 сказано следующее:

Обновления программного обеспечения Apple (именуемые "Программное обеспечение Apple") предоставляются по лицензии, а не продаются вам компанией Apple Inc. (Apple) и предназначены для использования только в соответствии с условиями данной лицензии. Apple и её лицензианты сохраняют право собственности на Программное обеспечение Apple за собой и сохраняют за собой все права, не предоставленные вам напрямую. Вы соглашаетесь с тем, что условия данной лицензии применяются к любому приложению под брендом Apple

Лицензионное соглашение iOS14

Говоря простым языком, за 90 тыс. рублей вы покупаете только "кирпич" с набором микросхем и камерой внутри. Пользоваться можно лишь после того, как покупатель даёт согласие Apple работать с айфоном так, как сказала компания-разработчик. Другими словами, покупать телефон и делать с ним всё что угодно пользователь может ровно до того момента, пока нет необходимости включить его и начать пользоваться по прямому назначению. Все программы, установленные внутри, включая камеру, фото, приложения, почту и мессенджеры, остаются в собственности Apple, и компания может распоряжаться ими, как посчитает нужным. Сканирование фотографий вписывается в политику конфиденциальности Apple, поскольку пользователь принял все условия и решил пользоваться iPhone после покупки.

Чего добивается Apple?

Фото © Getty Images

Фото © Getty Images

Существует высокая вероятность, что новый инструмент для сканирования фотографий пользователей (если его всё-таки собираются внедрять) будет подан как "механизм по защите детей от сексуального насилия". После появления данных о скором релизе этой системы от Apple ждут объяснений по целому ряду вопросов. Например, пользователей интересует, как быть с "ложноположительными тестами" фотографий — на которых сексуального насилия нет, а данные специально обученная нейросеть уже передала полиции и другим специальным службам государства. На каких основаниях и каким способом нейросеть будет записывать пользователя в список педофилов, пока не сообщается. Не сообщается также, как убрать оттуда свои данные, если обвинения окажутся ложными, поскольку ни один файл с серверов таких компаний, как Apple или Google, не удаляется безвозвратно.

Несколько западных экспертов по кибербезопасности уже раскритиковали эту идею, назвав её системой слежки и серьёзным нарушением конфиденциальности.

Что касается России, то здесь Apple придётся ответить на главный вопрос: как такой инструмент проверки личных данных пользователя (среди которых может быть как домашняя эротика, так и фото счётчиков на воду) вписывается в рамки федерального закона "О персональных данных". Вице-президент московской коллегии адвокатов "Ромашов, Романов и Парников" Евгений Ромашов заявил, что если этот алгоритм Apple станет применять и к российским пользователям, то компании грозят крупные штрафы и другие неприятности.

Этот алгоритм может прямо нарушить ФЗ "О персональных данных", действующий на территории нашего государства. Если углубиться в эту ситуацию и допустить, что этот алгоритм используется по двойному назначению, то использовать его для прямой слежки за людьми не составляет большого труда. Фотографий и видео достаточно, чтобы выстроить цепочки общения людей между собой. Расшифровывать и передавать эти данные третьим лицам можно только с согласия их владельца или по решению суда. Если Apple срочно не объяснится перед властями стран, в которых работает, и просто запустит свой NeuralMatch, то будет прямое нарушение закона сразу по двум параметрам. Во-первых, анализируя содержимое фото и влезая в персональные данные без согласия пользователя, из-за чего могут изменить лицензионное соглашение, а во-вторых, передавая их третьим лицам — например, в органы или сотрудникам компании для анализа

Евгений Ромашов

Вице-президент московской коллегии адвокатов "Ромашов, Романов и Парников"

<p>Этот алгоритм может прямо нарушить ФЗ "О персональных данных", действующий на территории нашего государства. Если углубиться в эту ситуацию и допустить, что этот алгоритм используется по двойному назначению, то использовать его для прямой слежки за людьми не составляет большого труда. Фотографий и видео достаточно, чтобы выстроить цепочки общения людей между собой. Расшифровывать и передавать эти данные третьим лицам можно только с согласия их владельца или по решению суда. Если Apple срочно не объяснится перед властями стран, в которых работает, и просто запустит свой NeuralMatch, то будет прямое нарушение закона сразу по двум параметрам. Во-первых, анализируя содержимое фото и влезая в персональные данные без согласия пользователя, из-за чего могут изменить лицензионное соглашение, а во-вторых, передавая их третьим лицам — например, в органы или сотрудникам компании для анализа</p>
<p>Этот алгоритм может прямо нарушить ФЗ "О персональных данных", действующий на территории нашего государства. Если углубиться в эту ситуацию и допустить, что этот алгоритм используется по двойному назначению, то использовать его для прямой слежки за людьми не составляет большого труда. Фотографий и видео достаточно, чтобы выстроить цепочки общения людей между собой. Расшифровывать и передавать эти данные третьим лицам можно только с согласия их владельца или по решению суда. Если Apple срочно не объяснится перед властями стран, в которых работает, и просто запустит свой NeuralMatch, то будет прямое нарушение закона сразу по двум параметрам. Во-первых, анализируя содержимое фото и влезая в персональные данные без согласия пользователя, из-за чего могут изменить лицензионное соглашение, а во-вторых, передавая их третьим лицам — например, в органы или сотрудникам компании для анализа</p>

Если Apple собирается игнорировать российский закон "О персональных данных", компанию сначала начнут штрафовать. Первый этап — административная ответственность от 60 до 100 тыс. рублей, предусмотренная для юридических лиц. Если этот штраф Apple проигнорирует, для компании может наступить уголовная ответственность (по ст. 137) со штрафом до 200 тыс. рублей и лишением свободы для ответственных лиц на срок до двух лет. Если и это наказание компания будет игнорировать, то все устройства, использующие алгоритм NeuralMatch для сканирования и передачи фото/видео с устройств россиян, могут быть признаны шпионскими и запрещены к продаже. Если это произойдёт, то продажи iPhone в России (и других странах, где есть наказание за нарушение права на частную жизнь) могут оказаться под угрозой.

Комментариев: 1

avatar
Для комментирования авторизуйтесь!
avatar
Dim K13 августа, 18:23

В заголовке промелькнула : нейросети?, что? о чем?. Пока не удалось создать даже 1 нейрон. Только распил бабла. Сети, устройства -Да. С элементами интеллекта : память, процессоры, алгоритмы( умные, сложные с элементами самообучения. Но нейрон, пока нет и нет.

Layer 1