Как исследователь, потративший бесчисленные часы на изучение тонкостей разработки ИИ и ее потенциальных последствий для нашего общества, я глубоко обеспокоен продолжающимися дебатами вокруг OpenAI и предложенного Калифорнии законопроекта SB-1047. Мой личный опыт работы с системами искусственного интеллекта вселил во меня глубокое чувство ответственности за обеспечение их безопасного и этичного развертывания.
Бывшие сотрудники OpenAI Уильям Сондерс и Дэниел Кокотайло написали письмо губернатору Калифорнии Гэвину Ньюсому, в котором выразили свое разочарование, хотя и не удивленное, позицией OpenAI против предложенного закона штата, который обеспечивает строгие меры безопасности при разработке будущего ИИ.
«Сондерс и Кокотайло решили работать с OpenAI из-за желания поддерживать безопасность передовых технологий искусственного интеллекта, создаваемых компанией. Однако впоследствии они покинули OpenAI, так как больше не верили, что она будет безопасно, правдиво и этично развивать свои технологии. Системы искусственного интеллекта».
Они утверждают, что дальнейшее развитие без адекватных гарантий потенциально может привести к катастрофическим последствиям для населения в целом. Этот риск включает в себя такие сценарии, как массовые киберугрозы или содействие производству смертоносных биологических агентов.
Будучи энтузиастом технологий, я не мог не заметить иронию в позиции Сэма Альтмана по регулированию ИИ. Недавно он выступал за контроль над ним в Конгрессе, однако, когда дело доходит до реальных правил, он, похоже, делает шаг назад. Это захватывающий парадокс, который трудно игнорировать.
По данным опроса 2023 года, проведенного совместно корпорацией MITRE и Harris Poll, примерно 61% участников выразили сомнения в безопасности и защищенности нынешних технологий искусственного интеллекта.
Предлагаемый закон, SB-1047 или Закон о безопасных и надежных инновациях для пограничных искусственных моделей, требует, чтобы разработчики соблюдали определенные условия, прежде чем начинать обучение определенным моделям. Ключевые требования включают создание механизма быстрого отключения и разработку отдельного письменного протокола безопасности. Учитывая историю утечек данных и кибератак OpenAI за последние несколько лет, такие меры имеют решающее значение.
Как исследователь, освещающий эту тему, я хотел бы уточнить, что, насколько я понимаю, OpenAI не согласен с изображением своей позиции по SB 1047 некоторыми исследователями. По словам представителя, Business Insider сообщили, что OpenAI выступает за единый федеральный подход к политике в области ИИ, а не за свод законов штата. Эта точка зрения была выражена в письме, написанном директором по стратегии OpenAI Джейсоном Квоном сенатору штата Калифорния Скотту Винеру еще в феврале. Обоснование заключается в том, что такой подход будет способствовать инновациям и сделает США лидером в формировании глобальных стандартов ИИ.
Сондерс и Кокотайло утверждают, что призыв OpenAI к федеральному регулированию может быть не искренним. Они заявляют: «Мы не можем позволить себе ждать, пока Конгресс примет меры, потому что они открыто заявили о своем нежелании принимать существенные правила ИИ. Если они когда-либо это сделают, это потенциально может отменить законодательство Калифорнии».
Смотрите также
- Концовка «Субстанции» объясняет: что происходит со Сью и Элизабет?
- Huawei Watch GT 5 против GT 4: стоит ли обновлять свое носимое устройство?
- Обзор Beyerdynamic DT 770 Pro X Limited Edition – 100 лет звука
- Обзор саундбара LG S95TR: наконец-то хорошо
- 7 лучших чехлов для Apple iPhone 16 Pro Max 2024 года
- Z от HP Boost разделяет графические процессоры для ускорения рабочих нагрузок ИИ
- Милые обманщицы: Краткое содержание второго эпизода Летней школы: Это восхитительно медленное лето
- Как вы можете сами опробовать новую модель o1-preview от OpenAI
- Apple Mac Mini (M4) против Mac Studio: как сравниваются настольные предложения Apple?
- Обзор Amazon Kindle Colorsoft: волшебная и красочная электронная книга
2024-08-27 22:57