OpenAI использует собственные модели для борьбы с вмешательством в выборы

OpenAI использует собственные модели для борьбы с вмешательством в выборы

Как человеку, который наблюдал эволюцию технологий и их темную сторону на протяжении многих лет, приятно видеть, что OpenAI активно борется со злонамеренными действиями, направленными на срыв выборов и распространение дезинформации. Результаты отчета показывают, что, хотя субъекты угроз являются новаторами, они не добились значительных успехов в своих попытках создать новое вредоносное ПО или создать вирусную аудиторию.


В 2024 году OpenAI, новаторский подход к созданию генеративного искусственного интеллекта ChatGPT, предотвратил более 20 вредоносных действий и мошеннических сетей по всему миру. Эти действия различались по целям, масштабам и направленности, служа платформами для создания вредоносного ПО, изготовления профилей в СМИ, биографий и новостных статей.

OpenAI подтвердила, что изучила действия, которые ранее пресекала, и представила важные выводы своего расследования. Согласно отчету, киберпреступники настойчиво адаптируют и тестируют наши модели, но пока им не удалось добиться значительных успехов в создании новых вредоносных программ или наращивании больших баз пользователей с помощью вирусных средств.

Рекомендуемые видео

Особенно важно отметить этот момент, поскольку в этом году выборы пройдут в нескольких странах, таких как США, Руанда, Индия и Европейский Союз. Например, в середине июля OpenAI приняла меры против аккаунтов, которые публиковали сообщения о выборах в Руанде из разных профилей X (ранее известного как Twitter). Таким образом, приятно узнать, что OpenAI заявила, что те, кто пытался вмешаться в эти кампании, не добились значительного прогресса.

OpenAI одержала еще одну победу, предотвратив кибератаки китайской группы SweetSpectre, цель которой заключалась в фишинге корпоративных и личных адресов электронной почты сотрудников OpenAI. Кроме того, Microsoft недавно обнаружила несколько доменов, связанных с тайной иранской операцией влияния под названием «STORM-2035». После их отчета мы углубились в этот вопрос, остановили соответствующую деятельность в ChatGPT и сообщили о наших выводах.

OpenAI отмечает, что контент, созданный их моделями в социальных сетях, не получил большого внимания, поскольку у него было мало комментариев, лайков или репостов или вообще их не было. Тем не менее, OpenAI стремится сохранять бдительность в отношении того, как злоумышленники используют сложные модели в гнусных целях, и предпримет соответствующие шаги для противодействия этой проблеме.

Смотрите также

2024-10-12 01:58