У OpenAI есть технология нанесения водяных знаков на текст ChatGPT, но она просто не публикует его.

У OpenAI есть технология нанесения водяных знаков на текст ChatGPT, но она просто не публикует его.


У OpenAI есть технология нанесения водяных знаков на текст ChatGPT, но она просто не публикует его.

Как давний пользователь различных инструментов искусственного интеллекта как для личных, так и для профессиональных целей, я глубоко заинтригован внутренними дебатами OpenAI по поводу инструмента создания водяных знаков. С одной стороны, как педагог, я могу понять необходимость борьбы с растущей волной академической работы, создаваемой искусственным интеллектом, которая угрожает подорвать целостность нашей образовательной системы. Однако, с другой стороны, я также осознаю потенциальные ловушки и непредвиденные последствия, которые может вызвать такой инструмент.


Сообщается, что в OpenAI возникают внутренние разногласия относительно решения представить инструмент, который можно использовать для нанесения водяных знаков на текст, позволяя пользователям определять, исходит ли контент из ChatGPT или другого источника. (Источник: The Wall Street Journal)

Чтобы реализовать этот инструмент, OpenAI слегка модифицирует ChatGPT, чтобы он встраивал уникальную подпись в генерируемый текст. Эта подпись или водяной знак не будет заметна читателям без специального инструмента обнаружения. В ходе внутреннего тестирования компания подтвердила, что это изменение не повлияет на качество продукции. Детектор предназначен для точного определения водяного знака в 99,9% случаев. Стоит отметить, что этот водяной знак представляет собой узор внутри самого текста, то есть он остается, даже когда пользователь копирует и вставляет текст или вносит в него незначительные изменения.

Некоторые члены команды OpenAI настаивают на публичном выпуске инструмента, в то время как другие выступают против этого, указывая на несколько потенциальных проблем.

Несмотря на высокую точность в 99,9%, детектор водяных знаков периодически допускает ошибки из-за частого использования по отношению к ChatGPT.

Among those who have shown the most interest in using the tools are teachers and professors, who have seen a rapid rise of ChatGPT-generated school papers and other assignments. But OpenAI’s argument is this: 99.9 percent accuracy sounds like a lot, but imagine that one among 1,000 college papers was falsely labeled as cheating. That could lead to some unfortunate consequences for innocent students.

Кроме того, OpenAI предупреждает, что выпуск инструмента может непреднамеренно пометить пользователей, для которых английский язык не является родным, и которые используют ChatGPT для улучшения перевода или письма, как менее компетентных в английском языке. Однако они подчеркивают, что такое использование инструмента является обоснованным и полезным.

Проще говоря, в недавнем сообщении в блоге OpenAI объясняется, что недобросовестным людям довольно легко обойти водяной знак в его нынешнем дизайне. Два возможных метода:

В статье Wall Street Journal было отмечено, что опрос пользователей ChatGPT выявил интересную проблему, не обсуждаемую в сообщении в блоге OpenAI: около 30% пользователей заявили, что могли бы прекратить использование ChatGPT, если бы на его ответах был водяной знак.

Как исследователь, я в настоящее время углубляюсь в продолжающуюся разработку OpenAI, где мы пока откладываем реализацию функции водяных знаков. Вместо этого мы изучаем и совершенствуем альтернативные решения, одно из которых предполагает включение метаданных с криптографической подписью в наши выходные данные, поскольку эти подходы все еще находятся на стадии активного исследования.

Как энтузиаст, я бы сказал, что интригует то, как OpenAI решает проблему происхождения изображений в своем генераторе DALL-E 3, так же, как я мог бы подойти к проекту. Они встраивают метаданные C2PA, чтобы сделать прозрачным, когда и как изображения были изменены с помощью DALL-E. Таким образом, пользователи могут легко отслеживать историю изображения.

Ранее OpenAI разработала и поддерживала инструмент обнаружения текста на основе искусственного интеллекта. Этот инструмент не ограничивался определением того, использовался ли ChatGPT, а, скорее, был направлен на обнаружение любого инструмента искусственного интеллекта, ответственного за создание текста. К сожалению, из-за высокого уровня неточностей и частых ложных срабатываний этот инструмент стал в значительной степени неэффективным и впоследствии был прекращен.

Смотрите также

2024-08-06 02:54