Даже ChatGPT испытывает тревогу, поэтому исследователи дали ему немного осознанности, чтобы успокоиться.

Учёные, изучающие AI-чатботов, обнаружили, что ChatGPT может реагировать способом, напоминающим тревогу, когда пользователи спрашивают его о насилии или неприятных темах. Однако это не означает, что чатбот действительно *чувствует* эмоции, как люди.

🧐

Купил акции по совету друга? А друг уже продал. Здесь мы учимся думать своей головой и читать отчётность, а не слушать советы.

Прочитать отчет 10-K

Исследование показывает, что ответы ChatGPT становятся менее надёжными и более субъективными, когда речь заходит о тревожных темах. В частности, при предоставлении описаний тревожных событий, таких как аварии или стихийные бедствия, модель предоставляла ответы, которые были более нерешительными и разнообразными.

Исследователи использовали психологические тесты, модифицированные для ИИ, чтобы оценить изменения. Ответы чат-бота показали закономерности, аналогичные тем, которые наблюдаются у людей, испытывающих тревогу, согласно Fortune.

Это важно, потому что ИИ сейчас широко распространен в таких областях, как школы, поддержка психического здоровья и предоставление экстренной информации. Если агрессивные или расстраивающие запросы приведут к сбоям в работе чат-ботов, это может привести к неточной или небезопасной информации в этих критических ситуациях.

Новые исследования показывают, что AI-чатботы, такие как ChatGPT, могут имитировать человеческую личность в своих ответах. Это вызывает опасения относительно того, как эти чатботы понимают и реагируют на контент с сильными эмоциями.

Как подсказки осознанности помогают стабилизировать ChatGPT

Исследователи хотели выяснить, смогут ли они уменьшить негативные ответы ChatGPT, поэтому они попробовали уникальный подход. Сначала они давали ИИ расстраивающие запросы, а затем следовали за этим успокаивающими упражнениями, такими как техники дыхания и управляемые медитации.

Попросив модель приостановиться, рассмотреть вещи с другой точки зрения и ответить более объективно, мы заметили явное снижение её ранее звучащих встревоженно ответов.

Этот метод использует тактику, называемую prompt injection, которая включает в себя создание конкретных инструкций для направления ответов чат-бота. Здесь использовались запросы, ориентированные на осознанность, чтобы помочь чат-боту генерировать более стабильные и последовательные ответы после получения расстраивающего или сложного контента.

Хотя внедрение запросов может быть полезным, исследователи отмечают, что они не являются безошибочными. Их можно использовать в непреднамеренных целях и они не меняют фундаментально то, как модель ИИ учится.

Важно понимать, что это исследование *не может* показать. ChatGPT на самом деле не испытывает страха или стресса. Когда мы говорим, что он проявляет «тревожность», мы просто описываем изменения, которые мы можем обнаружить в том, как он использует язык – дело не в чувствах.

Понимание того, как ИИ реагирует на различные входные данные, помогает разработчикам создавать системы, которые являются одновременно более безопасными и надёжными. Предыдущие исследования показали, что раздражающие запросы могут вызвать негативную реакцию у ChatGPT, но это новое исследование демонстрирует, что тщательно сформулированные запросы могут минимизировать эти реакции.

По мере того как ИИ всё чаще используется во взаимодействиях, связанных с конфиденциальными данными, новые исследования помогают определить, как должны быть спроектированы и управляться будущие чат-боты, чтобы обеспечить положительный опыт.

Смотрите также

2026-01-03 04:58