Как человеку, который наблюдал эволюцию технологий и их темную сторону на протяжении многих лет, приятно видеть, что OpenAI активно борется со злонамеренными действиями, направленными на срыв выборов и распространение дезинформации. Результаты отчета показывают, что, хотя субъекты угроз являются новаторами, они не добились значительных успехов в своих попытках создать новое вредоносное ПО или создать вирусную аудиторию.
В 2024 году OpenAI, новаторский подход к созданию генеративного искусственного интеллекта ChatGPT, предотвратил более 20 вредоносных действий и мошеннических сетей по всему миру. Эти действия различались по целям, масштабам и направленности, служа платформами для создания вредоносного ПО, изготовления профилей в СМИ, биографий и новостных статей.
OpenAI подтвердила, что изучила действия, которые ранее пресекала, и представила важные выводы своего расследования. Согласно отчету, киберпреступники настойчиво адаптируют и тестируют наши модели, но пока им не удалось добиться значительных успехов в создании новых вредоносных программ или наращивании больших баз пользователей с помощью вирусных средств.
Рекомендуемые видео
Особенно важно отметить этот момент, поскольку в этом году выборы пройдут в нескольких странах, таких как США, Руанда, Индия и Европейский Союз. Например, в середине июля OpenAI приняла меры против аккаунтов, которые публиковали сообщения о выборах в Руанде из разных профилей X (ранее известного как Twitter). Таким образом, приятно узнать, что OpenAI заявила, что те, кто пытался вмешаться в эти кампании, не добились значительного прогресса.
OpenAI одержала еще одну победу, предотвратив кибератаки китайской группы SweetSpectre, цель которой заключалась в фишинге корпоративных и личных адресов электронной почты сотрудников OpenAI. Кроме того, Microsoft недавно обнаружила несколько доменов, связанных с тайной иранской операцией влияния под названием «STORM-2035». После их отчета мы углубились в этот вопрос, остановили соответствующую деятельность в ChatGPT и сообщили о наших выводах.
OpenAI отмечает, что контент, созданный их моделями в социальных сетях, не получил большого внимания, поскольку у него было мало комментариев, лайков или репостов или вообще их не было. Тем не менее, OpenAI стремится сохранять бдительность в отношении того, как злоумышленники используют сложные модели в гнусных целях, и предпримет соответствующие шаги для противодействия этой проблеме.
Смотрите также
- На фотографии iPhone 16 Pro Max видны удивительно тонкие рамки
- Концовка «Субстанции» объясняет: что происходит со Сью и Элизабет?
- Эта функция Apple Watch сводила меня с ума. Вот как я это исправил
- Если вы скучаете по старым Windows Phone от Nokia, вам понравится HMD Skyline.
- Приложение Google Gemini AI получает более широкую версию. Ваш телефон есть в списке?
- Xiaomi Mix Fold 4 против Xiaomi Mix Flip: в чем разница?
- Что лучше: Dell Latitude или Inspiron?
- Кристофер Нолан, по слухам, следующим будет снимать фильм ужасов
- Sony отступает и не будет принудительно использовать учетные записи PSN для ПК-игроков Helldivers 2 в Steam
- Google убивает службу обмена сообщениями внутри Google Maps
2024-10-12 01:58