Apple подала иск на 1,2 миллиарда долларов после уничтожения скандального инструмента обнаружения CSAM

Apple подала иск на 1,2 миллиарда долларов после уничтожения скандального инструмента обнаружения CSAM

Как наблюдатель, ставший свидетелем развития цифрового мира за последние несколько десятилетий, я глубоко обеспокоен продолжающейся сагой между Apple и детьми, пережившими сексуальное насилие. Технологического гиганта, которого когда-то хвалили за его приверженность конфиденциальности и безопасности, теперь обвиняют в том, что он закрывает глаза на ту самую проблему, которую, как он утверждает, ненавидит — распространение материалов о сексуальном насилии над детьми (CSAM) на своей платформе.

Многие люди подали иски против Apple, обвиняя компанию в неспособности эффективно выявлять и сообщать о подозрительном контенте, связанном с незаконной эксплуатацией детей, обычно называемом «материалами о сексуальном насилии над детьми» (CSAM).

После решения Apple отказаться от спорной функции сканирования CSAM прошлой осенью, которая была призвана существенно уменьшить распространение CSAM в их продуктах, был инициирован коллективный иск. Apple оправдала свой отказ от этого инструмента после того, как многочисленные защитники цифровых прав выразили тревогу, что власти могут злоупотребить этой функциональностью для незаконного наблюдения за пользователями Apple в других целях. Кроме того, Apple выразила обеспокоенность тем, что злоумышленники могут использовать эту функцию для манипулирования своими пользователями, и стремилась защитить невинных пользователей от оповещений о ложном контенте.

Пережившие сексуальное насилие над детьми утверждают, что Apple использует аргументы в области кибербезопасности, чтобы обойти свои обязательные обязанности по отчетности в отношении материалов о сексуальном насилии над детьми (CSAM). Если они выиграют дело в суде, Apple может грозить штраф в размере более 1,2 миллиарда долларов. Более того, в случае победы Apple, возможно, придется выявлять, удалять CSAM и сообщать о нем в iCloud, а также устанавливать политику, практику и процедуры для предотвращения распространения CSAM или торговли детьми в целях сексуальной эксплуатации на своих устройствах и сервисах. Это потенциально может привести к постановлению суда, требующему использования спорного инструмента или альтернативы, соответствующей отраслевым стандартам для массового обнаружения CSAM.

В своем заявлении Apple не смогла напрямую решить основные проблемы, высказанные выжившими в отношении обнаружения известных материалов о сексуальном насилии над детьми (CSAM). Некоторым из этих выживших сейчас около 20 лет, но они подверглись насилию в младенчестве или раннем детстве и продолжают получать повторную травму из-за постоянных уведомлений о жестоком обращении, которые они получали на протяжении десятилетий. Поразительно, но в некоторых из этих уведомлений указывалось, что изображения жестокого обращения с ними были обнаружены на устройствах и сервисах Apple. Однако похоже, что текущие меры безопасности Apple отдают приоритет обнаружению ухода или новым случаям CSAM, а не предотвращению повторной травматизации, вызванной распространением известного CSAM.

Представитель Apple заявил, что материалы, посвященные эксплуатации детей, омерзительны, и они полны решимости бороться с методами, используемыми правонарушителями для того, чтобы подвергнуть детей опасности. Они активно разрабатывают новые технологии для борьбы с этими отвратительными действиями, не ставя под угрозу безопасность и конфиденциальность своих пользователей. Например, такие инструменты, как безопасность общения, предупреждают детей, когда они получают или пытаются отправить откровенный контент, чтобы предотвратить цикл принуждения, связанный с сексуальным насилием над детьми. Apple продолжает уделять первоочередное внимание созданию мер безопасности, направленных на предотвращение распространения CSAM с самого начала.

Один из анонимных истцов, подавших иски о прекращении дальнейшего ущерба, обвинил Apple в том, что она годами игнорировала материалы о сексуальном насилии над детьми (CSAM), из-за чего им пришлось пережить бесконечные испытания. Пострадавшая рассказала The New York Times, что она подает в суд на Apple, поскольку считает, что они нарушили свое обязательство по защите таких людей, как она, пренебрегая установкой детектора CSAM в установленный срок.

Apple получает прибыль от игнорирования CSAM, говорится в иске

Пытаясь подкрепить свои аргументы, адвокаты, представляющие выживших, тщательно изучили 80 случаев, когда правоохранительные органы обнаруживали материалы о сексуальном насилии над детьми (CSAM) на устройствах Apple, определив в этой группе около 2680 потенциальных членов класса. Большая часть CSAM была обнаружена в хранилище iCloud, и этот пункт оспаривается в иске, поскольку в нем утверждается, что iCloud превратился в существенный источник дохода для Apple, несмотря на постоянную критику по поводу его очевидных недостатков в отношении CSAM.

С точки зрения выживших, кажется, что Apple выигрывает от того, что не строго регулирует материалы о сексуальном насилии над детьми (CSAM) в iCloud, поскольку это дает хищникам детей безопасное место для хранения такого контента, о котором часто сообщают и удаляют другие крупные технологические компании. Согласно иску, только в 2023 году Apple сообщила только о 267 случаях CSAM, в то время как четыре ведущие технологические компании представили более 32 миллионов отчетов. Если снисходительное отношение Apple к CSAM сохранится, выжившие обеспокоены тем, что достижения в области искусственного интеллекта могут привести к экспоненциальному увеличению необнаруженного CSAM.

Когда устройства Apple используются для распространения CSAM, это огромная проблема для выживших, которые предположительно сталкиваются с целым рядом вредов, включая «воздействие хищников, сексуальную эксплуатацию, диссоциативное поведение, абстинентный синдром, социальную изоляцию, ущерб имиджу тела и самооценке». , повышенное рискованное поведение и серьезные проблемы с психическим здоровьем, включая, помимо прочего, депрессию, тревогу, суицидальные мысли, членовредительство, бессонницу, расстройства пищевого поведения, смерть и другие вредные последствия». Одна из выживших рассказала The Times, что она «живет в постоянном страхе, что кто-то может ее выследить и узнать».

Как наблюдатель, я отмечаю, что люди, которые выжили (и сейчас подают в суд), накопили медицинские и дополнительные расходы из-за бездействия Apple, как утверждается в их иске. Если этот юридический спор будет продолжаться несколько лет и практика Apple останется неизменной, эти расходы, несомненно, возрастут еще больше.

Проще говоря, Риана Пфефферкорн, эксперт по правовым вопросам из Стэнфордского института человеко-ориентированного искусственного интеллекта, заявила The Times, что Apple может выиграть дело из-за проблем, с которыми сталкиваются выжившие, пытаясь привлечь Apple к ответственности за неправильное управление контентом, что, по утверждению Apple, является защищен разделом 230. Однако Пфефферкорн предупредил, что победа выживших может иметь непредвиденные последствия, если Apple успешно докажет, что принудительное сканирование устройств и служб нарушает Четвертый закон. Права на внесение изменений.

Люди, пережившие определенные инциденты, некоторые из которых используют iPhone, считают, что Apple должна обеспечить их безопасность. В своем заявлении Маргарет Э. Мэби, адвокат, представляющий интересы выживших, поблагодарила их за то, что они «призвали к справедливости и призвали Apple наконец-то вмешаться и защитить этих жертв».

Как исследователь, я вынужден выразить свою обеспокоенность по поводу такого влиятельного технологического гиганта, как Apple. Тысячи выживших мужественно выступили вперед, добиваясь справедливости и ответственности. К сожалению, вместо того, чтобы предложить помощь, Apple решила не участвовать в борьбе с материалами о сексуальном насилии над детьми на своей платформе или устройствах. Фактически, их рекламная стратегия, кажется, подчеркивает это бездействие, потенциально усугубляя страдания этих жертв.

Смотрите также

2024-12-09 23:54