ChatGPT и Gemini могут шутить, но им не совсем понятны ваши каламбуры.

Искусственный интеллект теперь может писать такие вещи, как лимерики и шутки, которые… ну, неплохие, но недавнее исследование показывает, что он на самом деле не *понимает* юмор. Хотя такие инструменты, как ChatGPT и Gemini, могут копировать *форму* шутки, они не понимают *почему* она смешная, особенно когда дело касается игры слов и каламбуров.

🧐

Купил акции по совету друга? А друг уже продал. Здесь мы учимся думать своей головой и читать отчётность, а не слушать советы.

Прочитать отчет 10-K

Недавнее исследование, уместно названное «Каламбур непреднамеренный: LLM и иллюзия понимания юмора», исследовало, насколько хорошо ИИ понимает каламбуры. Исследователи обнаружили, что, хотя ИИ может повторять шутки, которые он уже выучил, он на самом деле не *понимает*, что делает каламбур смешным — ему трудно даются остроумные, многослойные значения, которые создают юмор.

Искусственный интеллект не так забавен, как пытается казаться

Как аналитик, я изучал, почему каламбуры так сложны для ИИ. Всё сводится к тому, как мы, люди, понимаем язык. Каламбуры работают, потому что слова могут иметь несколько значений или звучать похоже – это игривый трюк, с которым наш мозг справляется легко. Но ИИ не *понимает* значения; он просто распознаёт закономерности. Поэтому, хотя он может идентифицировать слова, звучащие похоже, он упускает остроумную связь, которая делает каламбур забавным.

Исследователи протестировали ботов, создавая слегка измененные каламбуры. Они создали два новых набора примеров, названных PunnyPattern и PunBreak, используя реальные каламбуры, в которых они заменяли важные слова. Это удаляло игривый двойной смысл, сохраняя при этом грамматическую правильность предложений.

Если человек услышал шутку, рассказанную плохо, он сразу бы понял, что она не смешная. Но ИИ все еще может утверждать, что она *есть* смешная, просто потому, что структура предложения напоминает шутки, которые он изучил во время обучения. Это похоже на человека, притворяющегося, что смеется над шуткой, которую он не понял, просто из вежливости. Это показывает, что эти ИИ-модели на самом деле не *понимают* юмор – они просто имитируют его форму.

Но ваш AI-ассистент пока еще не комик

Я заметил, что если вы используете ChatGPT для помощи в написании – будь то профессиональный писатель, маркетолог, создающий контент, или просто добавляющий немного изюминки в презентацию – всегда хорошая идея проверить то, что он генерирует. Это полезно, но не идеально, и быстрая проверка может иметь решающее значение.

Это исследование показывает, что юмор, созданный ИИ, часто лишен содержания. Поскольку ИИ не по-настоящему *понимает* шутки, он может создавать каламбуры, которые не имеют смысла, или полностью пропускать сарказм. Представьте себе разницу между опытным комиком и попугаем, имитирующим шутку. Чрезмерная зависимость от ИИ для творческого письма может привести к контенту, который кажется искусственным или, что еще хуже, просто несмешным.

Может ли ИИ когда-нибудь по-настоящему понимать каламбуры?

Исследователи полагают, что просто предоставление ИИ большего количества информации не решит проблему понимания юмора. Чтобы действительно понять каламбур, ИИ необходимо знать, как произносятся слова, и понимать культурный контекст, который делает его смешным. Текущие модели ИИ, которые обрабатывают только текст, не обладают способностью обрабатывать звук и не имеют реального жизненного опыта, необходимого, чтобы ‘понять’ шутку.

Текущему ИИ необходимы значительные улучшения – вероятно, сочетание традиционного понимания языка и способности анализировать звуки – если он когда-либо надеется конкурировать с комиками-людьми. На данный момент, сочинять плохие каламбуры – это то, что действительно может делать только человек.

Смотрите также

2025-11-30 04:36