Как человеку, который наблюдал эволюцию технологий и их темную сторону на протяжении многих лет, приятно видеть, что OpenAI активно борется со злонамеренными действиями, направленными на срыв выборов и распространение дезинформации. Результаты отчета показывают, что, хотя субъекты угроз являются новаторами, они не добились значительных успехов в своих попытках создать новое вредоносное ПО или создать вирусную аудиторию.
В 2024 году OpenAI, новаторский подход к созданию генеративного искусственного интеллекта ChatGPT, предотвратил более 20 вредоносных действий и мошеннических сетей по всему миру. Эти действия различались по целям, масштабам и направленности, служа платформами для создания вредоносного ПО, изготовления профилей в СМИ, биографий и новостных статей.
OpenAI подтвердила, что изучила действия, которые ранее пресекала, и представила важные выводы своего расследования. Согласно отчету, киберпреступники настойчиво адаптируют и тестируют наши модели, но пока им не удалось добиться значительных успехов в создании новых вредоносных программ или наращивании больших баз пользователей с помощью вирусных средств.
Рекомендуемые видео
Особенно важно отметить этот момент, поскольку в этом году выборы пройдут в нескольких странах, таких как США, Руанда, Индия и Европейский Союз. Например, в середине июля OpenAI приняла меры против аккаунтов, которые публиковали сообщения о выборах в Руанде из разных профилей X (ранее известного как Twitter). Таким образом, приятно узнать, что OpenAI заявила, что те, кто пытался вмешаться в эти кампании, не добились значительного прогресса.
OpenAI одержала еще одну победу, предотвратив кибератаки китайской группы SweetSpectre, цель которой заключалась в фишинге корпоративных и личных адресов электронной почты сотрудников OpenAI. Кроме того, Microsoft недавно обнаружила несколько доменов, связанных с тайной иранской операцией влияния под названием «STORM-2035». После их отчета мы углубились в этот вопрос, остановили соответствующую деятельность в ChatGPT и сообщили о наших выводах.
OpenAI отмечает, что контент, созданный их моделями в социальных сетях, не получил большого внимания, поскольку у него было мало комментариев, лайков или репостов или вообще их не было. Тем не менее, OpenAI стремится сохранять бдительность в отношении того, как злоумышленники используют сложные модели в гнусных целях, и предпримет соответствующие шаги для противодействия этой проблеме.
Смотрите также
- 7 лучших чехлов для Apple iPhone 16 Pro Max 2024 года
- Honor Magic 7 Pro против OnePlus 13: битва андроидов
- 20 лучших циферблатов Samsung Galaxy Watch, которые вам стоит использовать
- Разблокируйте DeepSeek: обойдите цензуру за 10 минут!
- Моторола Мото G75 5G
- Huawei Watch GT 5 против GT 4: стоит ли обновлять свое носимое устройство?
- Обзор саундбара LG S95TR: наконец-то хорошо
- Xiaomi 14T Pro против Samsung Galaxy S24: что купить?
- Honor Magic 7 Pro против Honor Magic 6 Pro: стоит ли обновляться?
- Я рассмотрел пару крошечных наушников, которые помогли мне лучше спать
2024-10-12 01:58