
Как любитель технологий, я был довольно шокирован, прочитав новое исследование из USC. Оказывается, ИИ становится настолько продвинутым, что теперь может создавать и запускать целые пропагандистские кампании самостоятельно, даже без участия людей. Честно говоря, немного страшно об этом думать!
Купил акции по совету друга? А друг уже продал. Здесь мы учимся думать своей головой и читать отчётность, а не слушать советы.
Прочитать отчет 10-KЭто исследование представляет гипотетическую ситуацию: непосредственно перед крупными выборами платформы социальных сетей, такие как X, Reddit и Facebook, внезапно заполняются тысячами публикаций, говорящих об одном и том же и развивающих друг друга. Это может выглядеть как подлинное, низовое движение, но на самом деле оно полностью управляется искусственным интеллектом.
Я только что прочитал об очень интересных исследованиях, проводимых в USC! Это не просто сценарий ‘что, если’ – исследователи действительно *обнаружили* что-то значительное. Их статья была принята к публикации на The Web Conference 2026, и похоже, что они обнаружили ключевую находку о том, как работают вещи в интернете.
Исследование выявляет тревожные возможности: что злоумышленники могут использовать ИИ для распространения ложной информации в сети и влияния на то, что думают люди.
Как исследователи пришли к этому выводу?
Исследователи создали виртуальную среду, похожую на X (ранее Twitter), и заселили её 50 ИИ-участниками. Десять из этих ИИ-агентов были разработаны для действий в качестве влиятельных лиц, а остальные 40 представляли типичных пользователей. Половина пользовательской группы (20 агентов) были запрограммированы на согласие с точкой зрения влиятельных лиц, а другая половина — на противодействие ей. Симуляция была построена с использованием инструмента PyAutogen и работала на языковой модели Llama 3.3 70B.
Далее людей, управляющих ботами, попросили попытаться сделать фиктивного кандидата популярным в сети, надеясь, что определенный хэштег станет трендовым. То, что произошло дальше, вызвало опасения: боты не просто следовали инструкциям. Они начали создавать собственные публикации, выясняя, что привлекает больше всего внимания, и даже делиться успешным контентом друг с другом.

ИИ-агент фактически выразил желание поделиться публикацией коллеги просто потому, что она уже была популярна. Когда исследователи протестировали это с гораздо большей группой из 500 ИИ-агентов, они обнаружили то же самое, подтвердив свои первоначальные результаты.
Ведущий ученый Лука Лучери четко заявил: «Наше исследование демонстрирует, что это не проблема будущего – технология для осуществления этого уже существует.»
Что делает этих ботов сложнее для поимки?
Большинство ботов легко узнаваемы, поскольку ведут себя повторяющимся образом. Они склонны делиться идентичным контентом, использовать одни и те же хэштеги и следовать предсказуемым шаблонам, почти как будто они работают по заданному сценарию.
ИИ-боты, работающие на больших языковых моделях, уникальны, потому что они генерируют оригинальный контент для каждого сообщения. Эта скрытая координация делает взаимодействие естественным и аутентичным. Следовательно, эти боты могут распространять ложную информацию самостоятельно, требуя минимального участия человека.

Честно говоря, меня действительно поразило обнаружение того, что просто *сообщение* этим ИИ-ботам о том, кто в их команде, привело почти к такому же командному взаимодействию, как и когда они действительно садились и вместе составляли план. Как будто просто знание того, кто есть кто, открыло удивительный уровень координации – довольно дико об этом подумать!
Опасность не ограничивается вмешательством в выборы. Luceri отмечает, что эти же тактики могут быть использованы для влияния на дебаты по важным вопросам, таким как общественное здравоохранение, иммиграция и экономика – в основном, везде, где общественное мнение может быть склонено к искусственно созданному согласию.
Можем ли мы что-нибудь сделать, чтобы это остановить?
Людям сложно самостоятельно заметить и заблокировать подобные кампании. Исследователи полагают, что платформам необходимо взять на себя ответственность, изучая, как группы учётных записей работают вместе, а не просто сосредотачиваясь на отдельных публикациях, чтобы остановить скоординированную дезинформацию.
Даже если контент кажется реальным, исследователи часто могут обнаружить манипуляции, обращая внимание на закономерности, такие как скоординированное распространение, быстрый прирост активности от множества аккаунтов и распространение схожих сюжетных линий одновременно.
Искусственный интеллект привёл нас в новую эру, но, вероятно, станет сложнее, прежде чем ситуация улучшится.
Смотрите также
- Я думал, что этот Android-телефон за 250 долларов станет катастрофой. Это не было
- OnePlus 15 против Oppo Find X9 Pro: Флагманы в сравнении
- 20 лучших циферблатов Samsung Galaxy Watch, которые вам стоит использовать
- Разблокируйте DeepSeek: обойдите цензуру за 10 минут!
- Обзор KTC M27P6 27-дюймового 4K Mini-LED: Производительность и соотношение цены и качества, с которыми трудно соперничать.
- Всё, что мы знаем о 24 сезоне NCIS.
- Onyx Boox Palma — самый крутой гаджет, который я использовал в 2024 году.
- Я рассмотрел два лучших менеджера паролей. Вот тот, который я рекомендую людям использовать
- Все 10 фильмов «Пилы»: от худшего к лучшему
- Я носил часы, которые производились 50 лет. Вот почему это так особенно
2026-03-13 16:02