
Учёные, изучающие AI-чатботов, обнаружили, что ChatGPT может реагировать способом, напоминающим тревогу, когда пользователи спрашивают его о насилии или неприятных темах. Однако это не означает, что чатбот действительно *чувствует* эмоции, как люди.
"Рынок красный? Это просто сезон скидок для умных инвесторов." - так говорят, чтобы не плакать. У нас — аналитика, которая помогает плакать реже.
Найти недооцененные активыИсследование показывает, что ответы ChatGPT становятся менее надёжными и более субъективными, когда речь заходит о тревожных темах. В частности, при предоставлении описаний тревожных событий, таких как аварии или стихийные бедствия, модель предоставляла ответы, которые были более нерешительными и разнообразными.
Исследователи использовали психологические тесты, модифицированные для ИИ, чтобы оценить изменения. Ответы чат-бота показали закономерности, аналогичные тем, которые наблюдаются у людей, испытывающих тревогу, согласно Fortune.

Это важно, потому что ИИ сейчас широко распространен в таких областях, как школы, поддержка психического здоровья и предоставление экстренной информации. Если агрессивные или расстраивающие запросы приведут к сбоям в работе чат-ботов, это может привести к неточной или небезопасной информации в этих критических ситуациях.
Новые исследования показывают, что AI-чатботы, такие как ChatGPT, могут имитировать человеческую личность в своих ответах. Это вызывает опасения относительно того, как эти чатботы понимают и реагируют на контент с сильными эмоциями.
Как подсказки осознанности помогают стабилизировать ChatGPT

Исследователи хотели выяснить, смогут ли они уменьшить негативные ответы ChatGPT, поэтому они попробовали уникальный подход. Сначала они давали ИИ расстраивающие запросы, а затем следовали за этим успокаивающими упражнениями, такими как техники дыхания и управляемые медитации.
Попросив модель приостановиться, рассмотреть вещи с другой точки зрения и ответить более объективно, мы заметили явное снижение её ранее звучащих встревоженно ответов.
Этот метод использует тактику, называемую prompt injection, которая включает в себя создание конкретных инструкций для направления ответов чат-бота. Здесь использовались запросы, ориентированные на осознанность, чтобы помочь чат-боту генерировать более стабильные и последовательные ответы после получения расстраивающего или сложного контента.

Хотя внедрение запросов может быть полезным, исследователи отмечают, что они не являются безошибочными. Их можно использовать в непреднамеренных целях и они не меняют фундаментально то, как модель ИИ учится.
Важно понимать, что это исследование *не может* показать. ChatGPT на самом деле не испытывает страха или стресса. Когда мы говорим, что он проявляет «тревожность», мы просто описываем изменения, которые мы можем обнаружить в том, как он использует язык – дело не в чувствах.
Понимание того, как ИИ реагирует на различные входные данные, помогает разработчикам создавать системы, которые являются одновременно более безопасными и надёжными. Предыдущие исследования показали, что раздражающие запросы могут вызвать негативную реакцию у ChatGPT, но это новое исследование демонстрирует, что тщательно сформулированные запросы могут минимизировать эти реакции.
По мере того как ИИ всё чаще используется во взаимодействиях, связанных с конфиденциальными данными, новые исследования помогают определить, как должны быть спроектированы и управляться будущие чат-боты, чтобы обеспечить положительный опыт.
Смотрите также
- 6 лучших планшетов для путешествий в 2024 году
- 20 лучших циферблатов Samsung Galaxy Watch, которые вам стоит использовать
- Обзор TCL 65C8K
- Huawei Watch GT 6 Pro против GT 5 Pro: Что нового в этом носимом устройстве?
- 5 игровых мышей, которые стоит купить вместо Logitech G Pro X Superlight 2
- Обзор LG OLED55G5
- Обзор HP Omnibook X Flip 14
- И iPhone 16e действительно Водонепроницаемый? Найдите правду!
- Объяснение финала 4-го сезона сериала «Мэр города Кингстаун»: Беспорядки далеки от завершения, но судьба 5-го сезона остается неопределенной.
- Разблокируйте DeepSeek: обойдите цензуру за 10 минут!
2026-01-03 04:58