Как технический энтузиаст, внимательно следящий за развитием технологий искусственного интеллекта, я считаю открытое письмо нынешних и бывших сотрудников ведущих компаний, занимающихся искусственным интеллектом, поводом для беспокойства. Потенциальные риски, связанные с быстрым развитием этой технологии без надлежащего контроля, действительно серьезны.
Более дюжины сотрудников OpenAI, Google DeepMind и Anthropic опубликовали во вторник открытое письмо, в котором выразили обеспокоенность по поводу значительных опасностей быстрого развития технологий в этой области без создания надлежащей нормативной базы для смягчения потенциальных рисков.
Группа ученых предупреждает, что это нововведение может быть использовано для расширения уже существовавшего неравенства, искажения фактов, распространения ложной информации и даже привести к непостижимым последствиям потери контроля над автономными системами искусственного интеллекта, что, возможно, приведет к вымиранию человечества.
Подписавшие стороны уверены, что риски, связанные с ИИ, можно эффективно устранить посредством сотрудничества между учеными, законодателями и широкой общественностью. Однако они выражают обеспокоенность тем, что компании, занимающиеся искусственным интеллектом, могут отдавать предпочтение финансовой выгоде над нормативным надзором, и им нельзя доверять беспристрастное управление развитием технологий.
Как технический энтузиаст, я рад поделиться своим взглядом на стремительный рост технологии генеративного искусственного интеллекта с момента дебюта ChatGPT в конце 2022 года. Эта революционная технология произвела фурор в компьютерной индустрии среди таких крупных игроков, как Google Cloud, Amazon AWS, Oracle и Microsoft Azure возглавляют рынок, который, по прогнозам, к 2032 году достигнет 1 триллиона долларов. Согласно недавним исследованиям, по состоянию на март 2024 года около 75% опрошенных организаций уже внедрили ИИ в той или иной форме. Более того, ежегодное исследование Microsoft Work Index показало, что впечатляющие 75% офисных работников в настоящее время используют инструменты искусственного интеллекта на своих рабочих местах.
Будучи страстным последователем последних достижений в области искусственного интеллекта (ИИ), я столкнулся с некоторыми опасениями, высказанными Дэниелом Кокотайло, бывшим сотрудником OpenAI, относительно их подхода к инновациям. По сообщению The Washington Post, он выразил мнение, что эти компании, занимающиеся искусственным интеллектом, включая OpenAI и Stable Diffusion, приняли философию «двигайся быстро и ломай вещи». Однако, на мой взгляд, такое мышление противоречит тому, что необходимо для работы с такой мощной и сложной технологией, как искусственный интеллект, которая до сих пор не полностью понята как экспертами, так и общественностью.
Оппоненты, работающие в области искусственного интеллекта, утверждают, что эти корпорации хранят важные конфиденциальные данные о возможностях и недостатках своих продуктов, включая потенциальные опасности и эффективность мер безопасности. Они подчеркивают, что значительная часть этой информации не раскрывается ни регулирующим органам, ни широкой общественности.
«Пока за этими корпорациями не будет надлежащего государственного надзора, нынешние и бывшие сотрудники представляют собой одну из основных групп, способных привлечь их к ответственности перед обществом», — говорится в заявлении, подчеркивая, что широкое использование соглашений о конфиденциальности и неэффективное выполнение существующие меры защиты информаторов препятствуют этим вопросам.
Организация призвала компании, занимающиеся искусственным интеллектом, прекратить подписывать и выполнять положения о неущемлении достоинства, создать конфиденциальный механизм, позволяющий сотрудникам выражать жалобы совету директоров и регулирующим органам компании, а также избегать репрессий против публичных информаторов, если эти внутренние каналы окажутся неадекватными.
Смотрите также
- 7 лучших чехлов для Apple iPhone 16 Pro Max 2024 года
- 20 лучших циферблатов Samsung Galaxy Watch, которые вам стоит использовать
- Спойлеры к журнальному столику: какую тревожную сцену все постоянно упоминают?
- Honor Magic 7 Pro против OnePlus 13: битва андроидов
- Обзор Nest Thermostat 2024: великолепное четвертое поколение
- Моторола Мото G75 5G
- Обзор MobLand (сериал — 2025) — Похоже, у нас развивается ситуация.
- Разблокируйте DeepSeek: обойдите цензуру за 10 минут!
- 6 лучших планшетов для рукописных заметок в 2024 году
- Милые обманщицы: Летняя школа наконец раскрывает странность #Эзрии
2024-06-04 21:39