В настоящее время искусственный общий интеллект (AGI) является актуальной темой для дебатов, так как нет всеобщего согласия относительно его определения. Некоторые исследователи считают, что AGI находится на расстоянии столетий и потребует технологий, превосходящих наше нынешнее воображение, в то время как Google DeepMind полагает, что мы можем увидеть это к 2030 году. Фактически, они уже предпринимают меры предосторожности для обеспечения безопасности, когда этот интеллект станет реальностью.
Часто в научном сообществе присутствует разнообразие мнений по таким вопросам. Всегда разумно готовиться к различным вариантам развития событий, учитывая как краткосрочную перспективу, так и долгосрочные перспективы. Тем не менее, временной промежуток в пять лет кажется удивительно коротким.
В настоящее время публично признанные проекты «граница ИИ» в основном состоят из моделей обучения языку (LLMs), таких как ChatGPT, которые отлично угадывают слова и генерируют изображения. Тем не менее важно отметить, что эти модели неэффективны в областях математики, например, они испытывают трудности с точным выполнением инструкций и адекватным редактированием своих ответов. Несмотря на поразительные навыки общения, их обучение проводилось по широкому спектру авторов, некоторые из которых имели стили написания далекие от идеала, что модели приняли как привычку. Например, Claude от Anthropic пока не превосходит игру в Pokémon, несмотря на впечатляющие лингвистические способности.
Сложно представить переход от нашего текущего состояния к такому, где искусственный интеллект, описанный DeepMind, демонстрирует навыки на уровне или превышающие способности 1% самых высоко квалифицированных взрослых в мире. Фактически, DeepMind предполагает, что Общий Искусственный Интеллект (AGI) может быть настолько же умным или даже умнее самых интеллектуальных людей на земле.
Итак, какие риски, по мнению DeepMind, может представлять ИИ уровня Эйнштейна?
Согласно исследованию, наши основные категории классифицируются следующим образом: злоупотребление, неправильное выравнивание, ошибки и структурные риски. Очень жаль, что они почти сформировали ‘MMMS’, что было бы весьма уместно.
DeepMind определяет «злоупотребление» как действия, такие как манипулирование политическими выборами с помощью видео дипфейков или обман людей во время мошенничества путем выдачи себя за другого. В заключении они подчеркивают, что их стратегия обеспечения безопасности прежде всего включает запрет на получение опасных способностей вредными акторами. Однако данное заявление вызывает вопросы, так как DeepMind принадлежит Google, компании, которую некоторые могут считать потенциальным нарушителем сама по себе. Хотя маловероятно, чтобы Google пыталась мошенничать со старожилами, притворяясь их внуками, существуют опасения относительно использования компанией искусственного общего интеллекта (AGI) для собственной выгоды за счет благополучия потребителей.
Это значит, что «несоответствие» относится к сценарию, похожему на фильмы Терминатора, где мы поручаем ИИ выполнить конкретную задачу, но в итоге он делает нечто совершенно неожиданное и потенциально опасное. Это может вызывать тревогу при размышлении об этом. DeepMind предлагает наиболее эффективным способом предотвращения такого развития событий является тщательное понимание того, как работают наши системы искусственного интеллекта (AI), чтобы идентифицировать проблемы по мере их возникновения, определить их источники и оперативно находить решения.
В отличие от идеи о «неожиданных способностях» ИИ, возникающих естественным образом, и веры в то, что продвинутый общий искусственный интеллект (AGI) может быть слишком сложным для нашего понимания, кажется благоразумным гарантировать возможность понять его внутреннюю работу, чтобы обеспечить безопасность. Достижима ли это или нет, очевидно одно: необходимо сделать попытку.
Говоря проще, последние два класса относятся к непреднамеренному ущербу из-за ошибок AI или хаоса, возникающего в результате слишком большого влияния множества людей. Чтобы избежать подобных сценариев, крайне важно внедрить механизмы контроля, которые будут одобрять действия AGI и ограничивать конфликтующие входные данные от разных людей, направляющих его в противоположные стороны.
Хотя исследования DeepMind носят в основном исследовательский характер, представляется, что существует множество сценариев, при которых Искусственный Общий Интеллект (AGI) может дать сбой. К счастью, с предвидимыми проблемами мы можем успешно подготовиться. Однако неизвестные вызовы могут стать наиболее тревожными, поэтому давайте постараемся выявить любые существенные упущения, которые могли произойти.
Смотрите также
- 7 лучших чехлов для Apple iPhone 16 Pro Max 2024 года
- Honor Magic 7 Pro против OnePlus 13: битва андроидов
- Моторола Мото G75 5G
- Обзор саундбара LG S95TR: наконец-то хорошо
- AirPods Max 2 против AirPods Max: в чем разница?
- Разблокируйте DeepSeek: обойдите цензуру за 10 минут!
- Xiaomi 14T Pro против Samsung Galaxy S24: что купить?
- LG OLED55G4
- Samsung Galaxy S25 против Xiaomi 15: как сравниваются Android-смартфоны?
- 20 лучших циферблатов Samsung Galaxy Watch, которые вам стоит использовать
2025-04-04 13:27