OpenAI никогда не сообщала, что хакеры взломали ее внутреннюю систему обмена сообщениями.

OpenAI никогда не сообщала, что хакеры взломали ее внутреннюю систему обмена сообщениями.

Как опытный аналитик по кибербезопасности, я считаю, что действия OpenAI в связи с недавним инцидентом взлома вызывают беспокойство. Тот факт, что хакер смог проникнуть в их внутреннюю систему обмена сообщениями и получить конфиденциальную информацию о конструкции их ИИ, является не только нарушением их протоколов безопасности, но и потенциальной угрозой для их пользователей и партнеров.


В прошлом году хакер успешно получил несанкционированный доступ к внутренней платформе обмена сообщениями OpenAI, как сообщила The New York Times в четверг. Это вторжение привело к краже информации о конструкции ИИ компании. Атака не затронула системы, в которых находился реальный код GPT или пользовательские данные, которые были надежно защищены.

В апреле 2023 года компания поделилась новостью об утечке данных со своими сотрудниками и членами совета директоров. Однако они решили не информировать общественность или ФБР об инциденте, утверждая, что в этом нет необходимости, поскольку не была получена никакая информация о пользователях или партнерах. По оценкам OpenAI, это была изолированная атака, осуществленная лицом, не имеющим каких-либо известных связей с иностранными державами, и не представляющая существенного риска для национальной безопасности.

Как любопытный фанат, внимательно следящий за новостями в сфере технологий, я хотел бы поделиться интригующим развитием событий, основанным на репортаже The New York Times. Бывший сотрудник OpenAI Леопольд Ашенбреннер в прошлом выражал обеспокоенность по поводу мер безопасности компании, выражая опасения, что потенциальные противники, такие как спецслужбы из таких стран, как Китай, могут получить несанкционированный доступ к ее системам. К сожалению, после выражения этих опасений Ашенбреннер был уволен из OpenAI. Однако представитель OpenAI Лиз Буржуа заявила The New York Times, что его увольнение не имеет ничего общего с поданной им запиской.

Как исследователь, изучающий OpenAI и его модель чат-бота ChatGPT, я своими глазами заметил, что платформа столкнулась с несколькими проблемами безопасности с момента ее запуска в ноябре 2022 года. Злоумышленники неоднократно атаковали ChatGPT, что неоднократно приводило к утечкам данных. Например, в феврале этого года имена пользователей и пароли были раскрыты в ходе отдельного взлома. В марте OpenAI была вынуждена отключить чат-бота, чтобы устранить ошибку, из-за которой раскрывалась конфиденциальная информация пользователей, такая как их имя и фамилия, адреса электронной почты, платежные реквизиты, включая адреса и типы кредитных карт, а также последние четыре цифры номеров карт. другим активным пользователям. В декабре прошлого года я наткнулся на сообщения о том, что исследователи безопасности смогли манипулировать ChatGPT, чтобы он раскрыл фрагменты своих обучающих данных, поручив ему несколько раз вводить слово «стихотворение».

По словам исследователя искусственного интеллекта Гэри Маркуса в интервью The Street в январе, ChatGPT не обеспечивает безопасности. Любая информация, которую вы вводите в чат-бот, потенциально может быть использована компанией в учебных целях или даже передана другим пользователям без вашего согласия. После инцидента с безопасностью OpenAI отреагировала введением дополнительных мер безопасности для ограничения несанкционированного доступа и неправильного использования своих моделей. Кроме того, они учредили Комитет по охране и безопасности для решения будущих проблем безопасности.

Смотрите также

2024-07-05 19:57