Apple «явно занижает информацию» о сексуальном насилии над детьми, говорят наблюдатели

Apple «явно занижает информацию» о сексуальном насилии над детьми, говорят наблюдатели


Apple «явно занижает информацию» о сексуальном насилии над детьми, говорят наблюдатели

Как обеспокоенный родитель и давний пользователь продуктов и услуг Apple, я нахожу недавние сообщения об обращении Apple с материалами о сексуальном насилии над детьми (CSAM) на своих платформах глубоко тревожными. В течение многих лет существовали опасения по поводу планов Apple по сканированию iCloud на наличие CSAM, от которых в конечном итоге отказались в прошлом году. Однако теперь кажется, что Apple не только не может обнаружить и сообщить о CSAM, но и занижает случаи такого контента, обнаруженного в ее сервисах.


В течение долгого времени Apple подвергалась критике по поводу предлагаемых планов по сканированию iCloud на наличие материалов о сексуальном насилии над детьми (CSAM). В прошлом году технологическая компания в конечном итоге отказалась от этих планов. Однако недавние обвинения утверждают, что Apple сейчас терпит неудачу в нескольких областях. Мало того, что выдвигаются обвинения в том, что CSAM остается незамеченным и не рассматривается в их сервисах, таких как iCloud, iMessage и FaceTime, но также есть опасения, что не обо всех помеченных CSAM сообщается.

NSPCC в Соединенном Королевстве раскрыла The Guardian данные британской полиции, указав, что Apple значительно недооценивает глобальное распространение CSAM (материалов о сексуальном насилии над детьми) на своих платформах на основе своих данных.

По данным NSPCC, в 2023 году правоохранительные органы Великобритании рассмотрели больше случаев материалов о сексуальном насилии над детьми (CSAM), чем Apple раскрыла во всем мире за тот же период. Только в Англии и Уэльсе в период с апреля 2022 года по март 2023 года NSPCC признала Apple стороной в 337 зарегистрированных преступлениях, связанных с CSAM. Однако в том же году Apple сообщила только о 267 случаях CSAM в Национальный центр по делам пропавших и эксплуатируемых детей (NCMEC), который, как полагают, охватывает все подобные случаи на своих платформах по всему миру. The Guardian опубликовала эти выводы.

Крупнейшие технологические компании, базирующиеся в США, обязаны передавать любые обнаруженные материалы о сексуальном насилии над детьми (CSAM) в Национальный центр по делам пропавших и эксплуатируемых детей (NCMEC). Однако, согласно данным NCMEC, в то время как Apple ежегодно раскрывает несколько сотен случаев, их коллеги, такие как Meta и Google, подают миллионы таких отчетов. Эксперты, опрошенные The Guardian, выразили подозрения, что Apple может занижать данные о случаях CSAM на своих платформах.

По словам Ричарда Колларда, руководителя онлайн-политики безопасности детей в NSPCC, Apple требует значительного усиления своих мер по защите детей, как сообщает The Guardian.

«Согласно заявлениям Колларда The Guardian, разрыв между зарегистрированными случаями содержания с жестоким обращением с детьми в британских сервисах Apple и реальным количеством таких инцидентов тревожно велик. Он выразил обеспокоенность тем, что Apple, похоже, отстает от своих коллег в борьбе с сексуальным насилием над детьми. подчеркивая необходимость того, чтобы все технологические компании уделяли приоритетное внимание безопасности в свете предстоящего Закона о безопасности в Интернете в Великобритании».

Как энтузиаст технологий, я могу понять опасения, поднятые экспертами за пределами Великобритании, такими как Сара Гарднер, генеральный директор Heat Initiative, базирующаяся в Лос-Анджелесе. Она выразила The Guardian свои опасения по поводу платформ Apple, рассматривая их как «черную дыру», скрывающую материалы о сексуальном насилии над детьми (CSAM). Более того, она ожидает, что планы Apple по интеграции ИИ в свои платформы могут усугубить проблему, упростив злоумышленникам распространение CSAM, созданного ИИ, в среде, где они могут предполагать меньший контроль.

Согласно заявлению Гарднера для The Guardian, Apple не идентифицирует материалы о сексуальном насилии над детьми (CSAM) во многих своих средах.

Гарднер разделил ту же точку зрения, что и Коллард, заявив, что Apple, похоже, «преуменьшает» или даже «недооценивает» свои инвестиции в команды доверия и безопасности, необходимые для работы с расширенными возможностями искусственного интеллекта. Это связано с тем, что Apple недавно включила ChatGPT в Siri, iOS и Mac OS, что потенциально сигнализирует о тенденции к более сложным функциям генеративного искусственного интеллекта в будущих устройствах Apple.

Гарднер предупредил The Guardian: «Компания отправляется в неизведанные воды, где потенциальный вред детям вызывает серьезную озабоченность, учитывая отсутствие подтвержденного опыта в этой области».

До сих пор Apple хранила молчание относительно отчета NSPCC. В сентябре прошлого года Apple ответила на призыв Heat Initiative об улучшении обнаружения CSAM, заявив, что вместо простого сканирования на предмет незаконного контента их приоритетом является облегчение связей между пользователями, находящимися в группе риска или пострадавшими, с местными сетями поддержки и правоохранительными органами, чтобы помочь их в своих конкретных сообществах.

Резкий рост сексуального искажения и рост CSAM, генерируемого ИИ

Прошлой осенью Apple изменила свой подход с выявления CSAM (материалов о сексуальном насилии над детьми) на помощь жертвам. В ответ генеральные прокуроры всех штатов США написали письмо в Конгресс, призывая законодателей глубже вникать в потенциальные опасности, с которыми сталкиваются дети из-за CSAM, созданного ИИ.

Законодатели рассмотрели возможность принятия закона, но эксперты по безопасности детей обеспокоены тем, что они не действовали достаточно быстро, чтобы предотвратить растущую проблему. К январю представители правоохранительных органов США подняли тревогу по поводу наплыва материалов о сексуальном насилии над детьми (CSAM), созданных с помощью искусственного интеллекта, что усложнило расследование реальных случаев жестокого обращения с детьми. Кроме того, исследователи из Human Rights Watch обнаружили, что некоторые популярные модели искусственного интеллекта обучались на реальных изображениях детей, в том числе с более строгими настройками конфиденциальности в социальных сетях. Это открытие потенциально может повысить вероятность того, что CSAM, созданный ИИ, будет иметь поразительное сходство с реальными детьми.

Кроме того, значительно возросла тревога ФБР по поводу случаев сексуального вымогательства детей в Интернете. Они сообщили о значительном росте числа инцидентов, когда несовершеннолетних заставляют отправлять в Интернет откровенные изображения. Следовательно, общественность оказывает все большее давление на законодателей, чтобы они приняли меры и привлекли эти платформы к ответственности.

Исследователи Хьюман Райтс Вотч выражают обеспокоенность тем, что достижения в области искусственного интеллекта (ИИ) могут сделать для детей более опасным обмен контентом в Интернете, поскольку резкий рост сексуального вымогательства увеличивает риск распространения материалов о сексуальном насилии над детьми (CSAM). Кроме того, откровенные изображения могут быть использованы для создания дополнительного вредоносного контента. Например, размещение, казалось бы, невинных фотографий в социальных сетях может привести к созданию целенаправленных и реалистичных дипфейков, в которых лица любого ученика средней или старшей школы меняются местами с жертвами сексуального насилия над детьми.

Независимо от того, становятся ли дети жертвами материалов о сексуальном насилии над детьми (CSAM), созданных искусственным интеллектом, или они являются жертвами реального насилия, последствия могут быть значительными. Для тех, кто подвергся реальному насилию, распространение дипфейков может привести к еще большим страданиям и травмам, поскольку их оскорбительный контент перерабатывается и распространяется. Жертвы CSAM, созданного искусственным интеллектом, сообщают о тревоге, депрессии и ощущении опасности в повседневной жизни.

Распространение материалов о сексуальном насилии над детьми (CSAM) в Интернете вызывает серьезные страдания, независимо от того, вызвано ли оно вымогательством со стороны неизвестных лиц, преследованием со стороны знакомых или созданием дипфейков с использованием искусственного интеллекта. Граница между аутентичным CSAM и CSAM, созданным искусственным интеллектом, становится все более размытой во всем мире.

Как опытный следователь по киберпреступлениям с более чем двадцатилетним опытом работы, я видел самые темные уголки Интернета. Недавние события в области материалов о сексуальном насилии над детьми (CSAM), созданных ИИ, вызывают одновременно тревогу и разочарование.

Поскольку Apple сталкивается с критикой со стороны защитников безопасности детей за недостаточные меры против материалов, содержащих сексуальное насилие над детьми (CSAM) на ее платформах, прежде чем интегрировать технологии искусственного интеллекта, другим технологическим компаниям, открыто имеющим дело с CSAM, рекомендуется пересмотреть свою политику в свете возникающих рисков, связанных с искусственным интеллектом.

В апреле Наблюдательный совет Meta сообщил о своем намерении оценить два случая, связанных с созданными с помощью ИИ изображениями сексуального характера женщин-знаменитостей, которыми Meta ранее управляла непоследовательно. Целью совета является определить, являются ли политика и правоприменительные меры Meta адекватными в борьбе с откровенными изображениями, созданными ИИ. Однако прошло несколько месяцев с момента начала этой проверки, а Совет до сих пор не принял решения, указывая на то, что без четких юридических указаний даже преданным экспертам, стремящимся улучшить онлайн-безопасность, может быть сложно сбалансировать потенциальный вред таких изображений. распространяется на платформах.

Смотрите также

2024-07-22 20:25