OpenAI обвиняют в несогласии с предложенным законопроектом о безопасности ИИ

OpenAI обвиняют в несогласии с предложенным законопроектом о безопасности ИИ

Как исследователь, потративший бесчисленные часы на изучение тонкостей разработки ИИ и ее потенциальных последствий для нашего общества, я глубоко обеспокоен продолжающимися дебатами вокруг OpenAI и предложенного Калифорнии законопроекта SB-1047. Мой личный опыт работы с системами искусственного интеллекта вселил во меня глубокое чувство ответственности за обеспечение их безопасного и этичного развертывания.


Бывшие сотрудники OpenAI Уильям Сондерс и Дэниел Кокотайло написали письмо губернатору Калифорнии Гэвину Ньюсому, в котором выразили свое разочарование, хотя и не удивленное, позицией OpenAI против предложенного закона штата, который обеспечивает строгие меры безопасности при разработке будущего ИИ.

«Сондерс и Кокотайло решили работать с OpenAI из-за желания поддерживать безопасность передовых технологий искусственного интеллекта, создаваемых компанией. Однако впоследствии они покинули OpenAI, так как больше не верили, что она будет безопасно, правдиво и этично развивать свои технологии. Системы искусственного интеллекта».

Они утверждают, что дальнейшее развитие без адекватных гарантий потенциально может привести к катастрофическим последствиям для населения в целом. Этот риск включает в себя такие сценарии, как массовые киберугрозы или содействие производству смертоносных биологических агентов.

Будучи энтузиастом технологий, я не мог не заметить иронию в позиции Сэма Альтмана по регулированию ИИ. Недавно он выступал за контроль над ним в Конгрессе, однако, когда дело доходит до реальных правил, он, похоже, делает шаг назад. Это захватывающий парадокс, который трудно игнорировать.

По данным опроса 2023 года, проведенного совместно корпорацией MITRE и Harris Poll, примерно 61% участников выразили сомнения в безопасности и защищенности нынешних технологий искусственного интеллекта.

Предлагаемый закон, SB-1047 или Закон о безопасных и надежных инновациях для пограничных искусственных моделей, требует, чтобы разработчики соблюдали определенные условия, прежде чем начинать обучение определенным моделям. Ключевые требования включают создание механизма быстрого отключения и разработку отдельного письменного протокола безопасности. Учитывая историю утечек данных и кибератак OpenAI за последние несколько лет, такие меры имеют решающее значение.

Как исследователь, освещающий эту тему, я хотел бы уточнить, что, насколько я понимаю, OpenAI не согласен с изображением своей позиции по SB 1047 некоторыми исследователями. По словам представителя, Business Insider сообщили, что OpenAI выступает за единый федеральный подход к политике в области ИИ, а не за свод законов штата. Эта точка зрения была выражена в письме, написанном директором по стратегии OpenAI Джейсоном Квоном сенатору штата Калифорния Скотту Винеру еще в феврале. Обоснование заключается в том, что такой подход будет способствовать инновациям и сделает США лидером в формировании глобальных стандартов ИИ.

Сондерс и Кокотайло утверждают, что призыв OpenAI к федеральному регулированию может быть не искренним. Они заявляют: «Мы не можем позволить себе ждать, пока Конгресс примет меры, потому что они открыто заявили о своем нежелании принимать существенные правила ИИ. Если они когда-либо это сделают, это потенциально может отменить законодательство Калифорнии».

Смотрите также

2024-08-27 22:57