На Apple подали в суд в США за решение не внедрять систему, которая сканировала бы фотографии iCloud на наличие материалов о сексуальном насилии над детьми (CSAM).
Компания анонсировала эту функцию еще в 2021 году, но так и не запустила, а также «не принимает какие-либо меры для обнаружения и ограничения» этих материалов. Иск подала 27-летняя женщина. Она сказала, что родственник приставал к ней, когда она была младенцем, и он опубликовал ее фотографии в Интернете. Девушка почти каждый день получает уведомления от правоохранительных органов о том, что кого-то обвиняют в хранении этих изображений.
Адвокат Джеймс Марш, который участвует в судебном процессе, сказал, что есть потенциальная группа из 2680 жертв, которые могут иметь право на компенсацию в этом случае.
Apple заявила, что «срочно и активно внедряет инновации для борьбы с этими преступлениями без ущерба для безопасности и конфиденциальности всех пользователей». [The Verge]

3 комментария
Форум →