Исследователи искусственного интеллекта предупреждают об угрозе «вымирания человечества» без дальнейшего надзора

Как технический энтузиаст, внимательно следящий за развитием технологий искусственного интеллекта, я считаю открытое письмо нынешних и бывших сотрудников ведущих компаний, занимающихся искусственным интеллектом, поводом для беспокойства. Потенциальные риски, связанные с быстрым развитием этой технологии без надлежащего контроля, действительно серьезны.


Более дюжины сотрудников OpenAI, Google DeepMind и Anthropic опубликовали во вторник открытое письмо, в котором выразили обеспокоенность по поводу значительных опасностей быстрого развития технологий в этой области без создания надлежащей нормативной базы для смягчения потенциальных рисков.

Группа ученых предупреждает, что это нововведение может быть использовано для расширения уже существовавшего неравенства, искажения фактов, распространения ложной информации и даже привести к непостижимым последствиям потери контроля над автономными системами искусственного интеллекта, что, возможно, приведет к вымиранию человечества.

Подписавшие стороны уверены, что риски, связанные с ИИ, можно эффективно устранить посредством сотрудничества между учеными, законодателями и широкой общественностью. Однако они выражают обеспокоенность тем, что компании, занимающиеся искусственным интеллектом, могут отдавать предпочтение финансовой выгоде над нормативным надзором, и им нельзя доверять беспристрастное управление развитием технологий.

Как технический энтузиаст, я рад поделиться своим взглядом на стремительный рост технологии генеративного искусственного интеллекта с момента дебюта ChatGPT в конце 2022 года. Эта революционная технология произвела фурор в компьютерной индустрии среди таких крупных игроков, как Google Cloud, Amazon AWS, Oracle и Microsoft Azure возглавляют рынок, который, по прогнозам, к 2032 году достигнет 1 триллиона долларов. Согласно недавним исследованиям, по состоянию на март 2024 года около 75% опрошенных организаций уже внедрили ИИ в той или иной форме. Более того, ежегодное исследование Microsoft Work Index показало, что впечатляющие 75% офисных работников в настоящее время используют инструменты искусственного интеллекта на своих рабочих местах.

Будучи страстным последователем последних достижений в области искусственного интеллекта (ИИ), я столкнулся с некоторыми опасениями, высказанными Дэниелом Кокотайло, бывшим сотрудником OpenAI, относительно их подхода к инновациям. По сообщению The Washington Post, он выразил мнение, что эти компании, занимающиеся искусственным интеллектом, включая OpenAI и Stable Diffusion, приняли философию «двигайся быстро и ломай вещи». Однако, на мой взгляд, такое мышление противоречит тому, что необходимо для работы с такой мощной и сложной технологией, как искусственный интеллект, которая до сих пор не полностью понята как экспертами, так и общественностью.

Оппоненты, работающие в области искусственного интеллекта, утверждают, что эти корпорации хранят важные конфиденциальные данные о возможностях и недостатках своих продуктов, включая потенциальные опасности и эффективность мер безопасности. Они подчеркивают, что значительная часть этой информации не раскрывается ни регулирующим органам, ни широкой общественности.

«Пока за этими корпорациями не будет надлежащего государственного надзора, нынешние и бывшие сотрудники представляют собой одну из основных групп, способных привлечь их к ответственности перед обществом», — говорится в заявлении, подчеркивая, что широкое использование соглашений о конфиденциальности и неэффективное выполнение существующие меры защиты информаторов препятствуют этим вопросам.

Организация призвала компании, занимающиеся искусственным интеллектом, прекратить подписывать и выполнять положения о неущемлении достоинства, создать конфиденциальный механизм, позволяющий сотрудникам выражать жалобы совету директоров и регулирующим органам компании, а также избегать репрессий против публичных информаторов, если эти внутренние каналы окажутся неадекватными.

Смотрите также

2024-06-04 21:39