Как исследователь, потративший бесчисленные часы на изучение тонкостей разработки ИИ и ее потенциальных последствий для нашего общества, я глубоко обеспокоен продолжающимися дебатами вокруг OpenAI и предложенного Калифорнии законопроекта SB-1047. Мой личный опыт работы с системами искусственного интеллекта вселил во меня глубокое чувство ответственности за обеспечение их безопасного и этичного развертывания.
Бывшие сотрудники OpenAI Уильям Сондерс и Дэниел Кокотайло написали письмо губернатору Калифорнии Гэвину Ньюсому, в котором выразили свое разочарование, хотя и не удивленное, позицией OpenAI против предложенного закона штата, который обеспечивает строгие меры безопасности при разработке будущего ИИ.
«Сондерс и Кокотайло решили работать с OpenAI из-за желания поддерживать безопасность передовых технологий искусственного интеллекта, создаваемых компанией. Однако впоследствии они покинули OpenAI, так как больше не верили, что она будет безопасно, правдиво и этично развивать свои технологии. Системы искусственного интеллекта».
Они утверждают, что дальнейшее развитие без адекватных гарантий потенциально может привести к катастрофическим последствиям для населения в целом. Этот риск включает в себя такие сценарии, как массовые киберугрозы или содействие производству смертоносных биологических агентов.
Будучи энтузиастом технологий, я не мог не заметить иронию в позиции Сэма Альтмана по регулированию ИИ. Недавно он выступал за контроль над ним в Конгрессе, однако, когда дело доходит до реальных правил, он, похоже, делает шаг назад. Это захватывающий парадокс, который трудно игнорировать.
По данным опроса 2023 года, проведенного совместно корпорацией MITRE и Harris Poll, примерно 61% участников выразили сомнения в безопасности и защищенности нынешних технологий искусственного интеллекта.
Предлагаемый закон, SB-1047 или Закон о безопасных и надежных инновациях для пограничных искусственных моделей, требует, чтобы разработчики соблюдали определенные условия, прежде чем начинать обучение определенным моделям. Ключевые требования включают создание механизма быстрого отключения и разработку отдельного письменного протокола безопасности. Учитывая историю утечек данных и кибератак OpenAI за последние несколько лет, такие меры имеют решающее значение.
Как исследователь, освещающий эту тему, я хотел бы уточнить, что, насколько я понимаю, OpenAI не согласен с изображением своей позиции по SB 1047 некоторыми исследователями. По словам представителя, Business Insider сообщили, что OpenAI выступает за единый федеральный подход к политике в области ИИ, а не за свод законов штата. Эта точка зрения была выражена в письме, написанном директором по стратегии OpenAI Джейсоном Квоном сенатору штата Калифорния Скотту Винеру еще в феврале. Обоснование заключается в том, что такой подход будет способствовать инновациям и сделает США лидером в формировании глобальных стандартов ИИ.
Сондерс и Кокотайло утверждают, что призыв OpenAI к федеральному регулированию может быть не искренним. Они заявляют: «Мы не можем позволить себе ждать, пока Конгресс примет меры, потому что они открыто заявили о своем нежелании принимать существенные правила ИИ. Если они когда-либо это сделают, это потенциально может отменить законодательство Калифорнии».
Смотрите также
- Объяснение странной концовки: кто на самом деле убил Дэни и почему?
- Наконец-то я попробовал Apple Intelligence в macOS Sequoia, чтобы проверить, оправдал ли он ожидания.
- Идеограмма 2.0 прибыла, чтобы съесть обед Midjourney
- Я очень надеюсь, что слухи об изменении обновлений Windows правдивы.
- 6 самых ужасающих фильмов на Hulu прямо сейчас
- Обзор Lenovo Yoga Slim 7X: взгляд в будущее ноутбуков на базе ARM
- Я рассмотрел 1Password, и это один из лучших менеджеров паролей, которые вы можете использовать.
- Arc хочет быть «браузером, который может просматривать информацию за вас»
- Как долго на самом деле работают процессоры?
- Обзор OBSBOT Tiny 2 Lite: крошечный, но мощный
2024-08-27 22:57