Исследования предупреждают, что агенты искусственного интеллекта могут стать самовоспроизводящейся машиной пропаганды.

Как любитель технологий, я был довольно шокирован, прочитав новое исследование из USC. Оказывается, ИИ становится настолько продвинутым, что теперь может создавать и запускать целые пропагандистские кампании самостоятельно, даже без участия людей. Честно говоря, немного страшно об этом думать!

🧐

Купил акции по совету друга? А друг уже продал. Здесь мы учимся думать своей головой и читать отчётность, а не слушать советы.

Прочитать отчет 10-K

Это исследование представляет гипотетическую ситуацию: непосредственно перед крупными выборами платформы социальных сетей, такие как X, Reddit и Facebook, внезапно заполняются тысячами публикаций, говорящих об одном и том же и развивающих друг друга. Это может выглядеть как подлинное, низовое движение, но на самом деле оно полностью управляется искусственным интеллектом.

Я только что прочитал об очень интересных исследованиях, проводимых в USC! Это не просто сценарий ‘что, если’ – исследователи действительно *обнаружили* что-то значительное. Их статья была принята к публикации на The Web Conference 2026, и похоже, что они обнаружили ключевую находку о том, как работают вещи в интернете.

Исследование выявляет тревожные возможности: что злоумышленники могут использовать ИИ для распространения ложной информации в сети и влияния на то, что думают люди.

Как исследователи пришли к этому выводу?

Исследователи создали виртуальную среду, похожую на X (ранее Twitter), и заселили её 50 ИИ-участниками. Десять из этих ИИ-агентов были разработаны для действий в качестве влиятельных лиц, а остальные 40 представляли типичных пользователей. Половина пользовательской группы (20 агентов) были запрограммированы на согласие с точкой зрения влиятельных лиц, а другая половина — на противодействие ей. Симуляция была построена с использованием инструмента PyAutogen и работала на языковой модели Llama 3.3 70B.

Далее людей, управляющих ботами, попросили попытаться сделать фиктивного кандидата популярным в сети, надеясь, что определенный хэштег станет трендовым. То, что произошло дальше, вызвало опасения: боты не просто следовали инструкциям. Они начали создавать собственные публикации, выясняя, что привлекает больше всего внимания, и даже делиться успешным контентом друг с другом.

ИИ-агент фактически выразил желание поделиться публикацией коллеги просто потому, что она уже была популярна. Когда исследователи протестировали это с гораздо большей группой из 500 ИИ-агентов, они обнаружили то же самое, подтвердив свои первоначальные результаты.

Ведущий ученый Лука Лучери четко заявил: «Наше исследование демонстрирует, что это не проблема будущего – технология для осуществления этого уже существует.»

Что делает этих ботов сложнее для поимки?

Большинство ботов легко узнаваемы, поскольку ведут себя повторяющимся образом. Они склонны делиться идентичным контентом, использовать одни и те же хэштеги и следовать предсказуемым шаблонам, почти как будто они работают по заданному сценарию.

ИИ-боты, работающие на больших языковых моделях, уникальны, потому что они генерируют оригинальный контент для каждого сообщения. Эта скрытая координация делает взаимодействие естественным и аутентичным. Следовательно, эти боты могут распространять ложную информацию самостоятельно, требуя минимального участия человека.

Честно говоря, меня действительно поразило обнаружение того, что просто *сообщение* этим ИИ-ботам о том, кто в их команде, привело почти к такому же командному взаимодействию, как и когда они действительно садились и вместе составляли план. Как будто просто знание того, кто есть кто, открыло удивительный уровень координации – довольно дико об этом подумать!

Опасность не ограничивается вмешательством в выборы. Luceri отмечает, что эти же тактики могут быть использованы для влияния на дебаты по важным вопросам, таким как общественное здравоохранение, иммиграция и экономика – в основном, везде, где общественное мнение может быть склонено к искусственно созданному согласию.

Можем ли мы что-нибудь сделать, чтобы это остановить?

Людям сложно самостоятельно заметить и заблокировать подобные кампании. Исследователи полагают, что платформам необходимо взять на себя ответственность, изучая, как группы учётных записей работают вместе, а не просто сосредотачиваясь на отдельных публикациях, чтобы остановить скоординированную дезинформацию.

Даже если контент кажется реальным, исследователи часто могут обнаружить манипуляции, обращая внимание на закономерности, такие как скоординированное распространение, быстрый прирост активности от множества аккаунтов и распространение схожих сюжетных линий одновременно.

Искусственный интеллект привёл нас в новую эру, но, вероятно, станет сложнее, прежде чем ситуация улучшится.

Смотрите также

2026-03-13 16:02