Слишком частое использование ChatGPT может вызвать эмоциональную зависимость, показало исследование

Похоже, что OpenAI регулярно представляет обновленные модели ИИ, направленные на улучшение чат-бота ChatGPT для выгоды своих 400 миллионов пользователей. Однако доступность этого продвинутого инструмента ставит вопросы о том, может ли быть избыток чего-то полезного.

Компания по разработке ИИ изучает возможные психологические последствия использования ChatGPT для её пользователей. Исследование, проведенное совместно с Лабораторией медиа-искусства MIT и опубликованное OpenAI, показывает связь между более частым использованием чатбота ChatGPT и повышенным ощущением одиночества.

Каждая организация провела свое собственное исследование и впоследствии объединила свои выводы в единое резюме. Исследование OpenAI рассматривала более 40 миллионов взаимодействий с CHATGPT в течение месяца, без вмешательства человека для защиты конфиденциальности пользователей. Одновременно MIT изучал около 1000 пользователей CATGPT в течение 28 дней. В настоящее время ни одно исследование не прошло рецензирование.

Исследовательская работа MIT рассмотрела различные функции взаимодействия в ChatGPT, которые могут влиять на эмоциональное состояние пользователя через текст или голос. Исследование показало, что оба метода потенциально могут вызвать чувства одиночества или повлиять на социальные взаимодействия пользователей во время проведения исследования. Кроме того, значимыми факторами были тембр голоса и выбранные темы.

Использование нейтрального тона в голосовом режиме ChatGPT снижало вероятность отрицательных эмоциональных реакций среди участников. В то же время, личные беседы с ChatGPT могли временно усилить ощущение одиночества у отдельных людей. Участники текстовых чатов на общие темы чаще сообщали о большей степени эмоциональной привязанности к чатботу.

Исследование показало, что люди, которые рассматривали ChatGPT как друга и имели предрасположенность к формированию сильных эмоциональных связей в отношениях, испытывали более высокий уровень одиночества и эмоциональной зависимости во время исследования, предполагая, что они сильно полагались на чат-бота для эмоциональной поддержки.

Исследование, проведенное OpenAI, расширило сферу применения, показав, что обращение к ChatGPT за эмоциональной поддержкой редко встречалось в большинстве случаев. Интересно, однако, что среди частых пользователей, которые применяли продвинутый голосовой режим и часто воспринимали ChatGPT как друга, наблюдалось минимальное количество эмоциональных реакций при взаимодействии с чат-ботом.

Проще говоря, OpenAI обнаружила, что цель этих исследований заключается в выявлении потенциальных проблем, связанных с их технологией, а также предоставлении рекомендаций и примеров по правильному использованию моделей.

Проще говоря, хотя OpenAI утверждает, что их интерактивные исследования имитируют паттерны человеческого поведения, многие открыто признались на платформах вроде Reddit, что прибегают к использованию ChatGPT вместо обращения за консультацией к реальному психотерапевту при решении своих эмоциональных проблем.

Смотрите также

2025-03-22 09:59