Исследователи искусственного интеллекта предупреждают об угрозе «вымирания человечества» без дальнейшего надзора

Исследователи искусственного интеллекта предупреждают об угрозе «вымирания человечества» без дальнейшего надзора

Как технический энтузиаст, внимательно следящий за развитием технологий искусственного интеллекта, я считаю открытое письмо нынешних и бывших сотрудников ведущих компаний, занимающихся искусственным интеллектом, поводом для беспокойства. Потенциальные риски, связанные с быстрым развитием этой технологии без надлежащего контроля, действительно серьезны.


Более дюжины сотрудников OpenAI, Google DeepMind и Anthropic опубликовали во вторник открытое письмо, в котором выразили обеспокоенность по поводу значительных опасностей быстрого развития технологий в этой области без создания надлежащей нормативной базы для смягчения потенциальных рисков.

Группа ученых предупреждает, что это нововведение может быть использовано для расширения уже существовавшего неравенства, искажения фактов, распространения ложной информации и даже привести к непостижимым последствиям потери контроля над автономными системами искусственного интеллекта, что, возможно, приведет к вымиранию человечества.

Подписавшие стороны уверены, что риски, связанные с ИИ, можно эффективно устранить посредством сотрудничества между учеными, законодателями и широкой общественностью. Однако они выражают обеспокоенность тем, что компании, занимающиеся искусственным интеллектом, могут отдавать предпочтение финансовой выгоде над нормативным надзором, и им нельзя доверять беспристрастное управление развитием технологий.

Как технический энтузиаст, я рад поделиться своим взглядом на стремительный рост технологии генеративного искусственного интеллекта с момента дебюта ChatGPT в конце 2022 года. Эта революционная технология произвела фурор в компьютерной индустрии среди таких крупных игроков, как Google Cloud, Amazon AWS, Oracle и Microsoft Azure возглавляют рынок, который, по прогнозам, к 2032 году достигнет 1 триллиона долларов. Согласно недавним исследованиям, по состоянию на март 2024 года около 75% опрошенных организаций уже внедрили ИИ в той или иной форме. Более того, ежегодное исследование Microsoft Work Index показало, что впечатляющие 75% офисных работников в настоящее время используют инструменты искусственного интеллекта на своих рабочих местах.

Будучи страстным последователем последних достижений в области искусственного интеллекта (ИИ), я столкнулся с некоторыми опасениями, высказанными Дэниелом Кокотайло, бывшим сотрудником OpenAI, относительно их подхода к инновациям. По сообщению The Washington Post, он выразил мнение, что эти компании, занимающиеся искусственным интеллектом, включая OpenAI и Stable Diffusion, приняли философию «двигайся быстро и ломай вещи». Однако, на мой взгляд, такое мышление противоречит тому, что необходимо для работы с такой мощной и сложной технологией, как искусственный интеллект, которая до сих пор не полностью понята как экспертами, так и общественностью.

Оппоненты, работающие в области искусственного интеллекта, утверждают, что эти корпорации хранят важные конфиденциальные данные о возможностях и недостатках своих продуктов, включая потенциальные опасности и эффективность мер безопасности. Они подчеркивают, что значительная часть этой информации не раскрывается ни регулирующим органам, ни широкой общественности.

«Пока за этими корпорациями не будет надлежащего государственного надзора, нынешние и бывшие сотрудники представляют собой одну из основных групп, способных привлечь их к ответственности перед обществом», — говорится в заявлении, подчеркивая, что широкое использование соглашений о конфиденциальности и неэффективное выполнение существующие меры защиты информаторов препятствуют этим вопросам.

Организация призвала компании, занимающиеся искусственным интеллектом, прекратить подписывать и выполнять положения о неущемлении достоинства, создать конфиденциальный механизм, позволяющий сотрудникам выражать жалобы совету директоров и регулирующим органам компании, а также избегать репрессий против публичных информаторов, если эти внутренние каналы окажутся неадекватными.

Смотрите также

2024-06-04 21:39