Международная коалиция, состоящая из более чем 90 политических и правозащитных групп опубликовала открытое письмо, в котором призвала Apple отказаться от интеграции анализа фотографий CSAM в свои продукты.
Хотя эти возможности предназначены для защиты детей, мы обеспокоены, что они будут использоваться для цензуры общения. Такой подход может привести к катастрофическим последствиям.
Отрывок из письма.
В публикации также содержится критика новых функций iMessage для семейных аккаунтов. Кто пропустил, напомним — если ребёнку на iPhone будет приходить сообщения с обнажёнными фотографиями, iMessage будет автоматически их размывать.
А родителям поступят уведомление, о том, что к ребёнку на телефон пришли такие снимки. Просмотреть такие фото ребёнок может только с подтверждения родителей.
Так вот, критикующие стороны считают, что это может усугубить взаимоотношение детей с родителями, а также помешать тем, кто использует такие изображения в образовательных целях.
Некоммерческая организация Center for Democracy & Technology (CDT) опасается, что шансы CSAM предоставить бэкдор политикам для осуществления репрессий слишком велики.
Как только CSAM будет встроена в большинство iPhone, органы власти в некоторых странах однозначно попытаются заставить Apple осуществлять поиск «неугодного» контента и учётные записи «неугодных» лиц.
В данном случае речь идёт не про поиск фотографий, на которых изображено насилие над детьми.
Большинство правозащитных групп, подписавших письмо, находятся в Индии, Мексике, Германии, Аргентине, Гане и Танзании.
Также поддержку проявили: Американский союз гражданских свобод, Electronic Frontier Foundation, Access Now, Privacy International и Tor Project.
Apple заявляет, что ни при каких обстоятельствах не будет давать доступ к технологии NeuralHash и CSAM третьим лицам. [MacRumors]
19 комментариев
Форум →Слежка слежка слежка … технологий в первую очередь для служб безопасности и власти 🤐
Я один читаю CSAM как SCAM?)
Виктор Иванович, зачем вы нашему сыну прислали фото своего полового органа? Аааа, в образовательных целях? Ну тогда ладно, а то мы подумали…пффффф.
Интересные правозащитники.
@kmbvst, вот действительно, очень странно, что правозащитники за это так переживают.
Уахахаха))))
Хотя-бы кто-то нормально прочитал про технологию применяемую. Похоже – нет. Эта технология не анализирует содержимое изображений, она вообще не знает что на снимке, она лишь делает из снимка математическую модель из которой генерируется уникальный идентификатор и он сравнивается с существующей базой, а что бы почти практически под ноль свести случайное совпадение, та устройстве и в iCloud должна быть определенная надкритическая масса. По этому все эти «правозащитнеги» дрянной натуры могут переживать только за то, что какой-то из них будет держать вот такие противоречащие любому здравому смыслу изображения у себя на телефоне, которые он скачал из интернета, ну или третьи государства изготовят хэши секретных документов и будут требовать от apple данные по тем, кто без предписания их сфотографировал на телефон.
@Phonerz, это не система с открытым исходным кодом, где можно зайти и почитать сорцы в гите. Они могут что угодно заявлять, ведь всё равно никто не узнает как внутри всё работает.
Это тоже самое, что и с телегой. Да, исходники клиента открыты, но какие исходники сервака – никто не знает.
@Phonerz, “какой-то из них будет держать вот такие противоречащие любому здравому смыслу изображения у себя на телефоне”
Да-да, мы это уже проходили на российском законодательстве, когда “противоречащие здравому смыслу” главные преступники – это внезапно борцы с коррупцией и прочая оппозиция. А ведь тоже все красиво начиналось в рамках борьбы с мировой угрозой и исключительно для защиты детей.
@Shniperson, «борцы с коррупцией»? Вы правда в это верите?
@Phonerz, да, но ничто не мешает этой технологии сравнивать хеши мат моделей не только запрещенных фото, но и любых которые CSAM добавит в свою базу. Кто знает что завтра туда попадет? База то закрытая и нигде нет того что именно и с чем будет сравниваться – одни слова.
@iGitlin, обычному человеку ничего и волноваться, сканы документов Пентагона ему при нормальных условиях на телефон и попасть то не должны. И наверное толко совсем дурак будет их сохранять в фотопленку телефона и iCloud.
@Phonerz, если посмотрите дальше своего носа, то поймёте, что то, что подсунут в базе, то на телефоне и будет искаться.
Вот… Увидишь вдалельца андроида знай, что потенциально он уклоняется от контроля эпл на педофилию!
А к фэйсбуку, МС. гугл и другим компаниям они тоже обратились? Что-то мне подсказывает, что нет, хотя те пользуются этим сканированием уже давно. Ох уж эти хайпажеры.
Святой Дарвин, потягаться в количестве публикации эта тема может разве что с ситуацией с Афганистане. Сколько можно это обсасывать?
А вы заметили как ярые приверженцы продукции Эпл, здесь в комментариях уже начали говорить, что это не так страшно, да вы чего, это во благо )))))
@AzbukaIT, а Вы не заметили, что подобные технологии используются разными компаниями, что западными, что отечественными. Apple вообще могла молча начать это делать на стороне сервера, но предпочла делать на стороне устройства и официально эту информацию опубликовала. Уверяю, если Вы использовали Google Фото, то фотографии уже такой анализ прошли.
Теперь народ двадцать раз подумает прежде чем снимать хоум фото и видео на смартфон.
Я никогда не поверю, что кто-то имея в руках ключик для доступа к контенту пользователя да и сам контент в подконтрольном ему облаке, туда не залезет если очень надо будет.
@meowmeow, не все такие как вы
Нашли орфографическую ошибку в новости?
Выделите ее мышью и нажмите Ctrl+Enter.Что делать, если пропали треки в Apple Music
Как настроить внешний вид папок на Mac
Как на iPad разблокировать все вкладки в приложении DaVinci Resolve
Как в macOS открывать страницы из Safari в другом браузере
Что делать, если один наушник AirPods часто отключается
Как быстро вводить эмодзи и специальные символы в macOS
Почему App Store просит деньги за бесплатные приложения
Почему не обновляется погодный виджет на iPhone