Как технический энтузиаст с глубоким интересом к искусственному интеллекту (ИИ) и его последствиям для нашего будущего, я не могу не встревожиться ошеломляющим количеством потребления энергии, которое в настоящее время требуют системы ИИ. Цифры поражают: использование искусственного интеллекта уже потребляет столько же энергии, сколько целая страна, такая как Кипр, в 2021 году. Это проблема, которую мы просто не можем себе позволить игнорировать.
Общеизвестно, что потребление энергии ИИ является значительным. Фактически, мировое использование энергии ИИ приравнивается к общему объему энергии, потребляемой страной Кипр в 2021 году.
Как наблюдатель, я бы сказал это так: инженеры из Университета Миннесоты в городах-побратимах придумали новую конструкцию компьютерной памяти, которая потенциально может значительно сократить энергопотребление систем искусственного интеллекта. Их новаторское исследование по этой теме недавно было опубликовано в журнале Nature Computing.
Современные вычислительные системы в первую очередь основаны на архитектуре фон Неймана, в которой различаются компоненты логики и памяти. При регулярном функционировании данные постоянно перемещаются между блоками памяти и процессорами. Эта архитектура формирует фундаментальную основу того, как современные компьютеры обрабатывают информацию.
Несмотря на быстрый прогресс в скорости обработки, технологии ввода-вывода отстают, что приводит к серьезным узким местам. Это связано как с проблемой стенки памяти, когда скорость передачи данных между памятью и процессорами замедляет скорость обработки, так и с повышенным энергопотреблением из-за постоянного перемещения данных между системами. По мнению исследователей, такая перетасовка данных может потреблять в 200 раз больше энергии, чем сами вычисления.
Разработчики разработали методы решения этой проблемы путем реализации вычислительных архитектур «около памяти» и «в памяти». В системах, близких к памяти, логика и память вертикально интегрированы в трехмерную структуру, расположенную как слои сэндвича. И наоборот, системы в памяти встраивают логические компоненты в саму память на одном чипе, напоминающем сэндвич с арахисовым маслом и бананом, с логическими фрагментами, вкрапленными между слоями памяти.
Инновационный подход, предложенный исследовательской группой городов-побратимов, называется вычислительной оперативной памятью (CRAM). Проще говоря, эта конструкция представляет собой полностью цифровое решение в памяти, где логическая обработка происходит внутри самих ячеек памяти. Это означает, что данные для логических операций остаются внутри памяти, что исключает необходимость их переноса куда-либо еще. Команда достигла этого, включив в ячейку памяти реконфигурируемую вычислительную подложку спинтроники. Согласно их выводам, это достижение потенциально может снизить энергопотребление операций ИИ почти в 1000 раз по сравнению с существующими решениями.
В качестве аналитика я изучил результаты исследований CRAM (дополнительная исследовательская память металл-оксид-полупроводник) и ее применения в классификации рукописных цифр с использованием набора данных MNIST. Команда сообщила о значительном улучшении: CRAM потребляет «в 2500 раз меньше энергии» и «в 1700 раз меньше шагов обработки» по сравнению с системой обработки, близкой к памяти, основанной на 16-нм технологическом узле. Проще говоря, я могу сказать, что CRAM значительно превосходит систему обработки данных с оперативной памятью, требуя гораздо меньше энергии и значительно меньше вычислительных шагов для этой конкретной задачи.
Быстро развивающийся сектор искусственного интеллекта сталкивается с серьезными проблемами с точки зрения ресурсов. Новейшие высокопроизводительные графические процессоры, необходимые для приложений искусственного интеллекта, потребляют огромное количество энергии. Например, самая продвинутая модель Blackwell B200 от NVIDIA может потреблять до 1200 Вт и выделять достаточно тепла, что требует жидкостного охлаждения — процесс сам по себе ресурсоемкий.
Поскольку гипермасштабирующие компании, такие как Google, Amazon и Microsoft, стремятся создать необходимые физические основы для предстоящей эволюции искусственного интеллекта, которая включает в себя строительство центров обработки данных беспрецедентных размеров, некоторые из которых даже оснащены атомными электростанциями, будет важно развивать больше энергетических технологий. эффективные вычислительные ресурсы и ресурсы памяти в долгосрочной перспективе. Это не только поможет снизить воздействие на окружающую среду, но также обеспечит устойчивость и доступность технологий искусственного интеллекта.
Смотрите также
- Huawei Watch GT 5 против GT 4: стоит ли обновлять свое носимое устройство?
- Концовка «Субстанции» объясняет: что происходит со Сью и Элизабет?
- Amazon Fire TV Stick HD против Fire TV Stick Lite: что нового?
- Snapdragon 8 Elite против Snapdragon 8 Gen 3: что нового?
- О RTX 5090 только что появился действительно многообещающий слух
- Обзор Intel Core Ultra 9 285K: впечатляет, но не обязательно хорошо
- Samsung Galaxy Tab S10 Ultra против Galaxy Tab S9 Ultra: что нового?
- Этот ремонтопригодный телефон Android — хорошая покупка, даже если вы не неуклюжи.
- Плата за подписку на потоковую передачу растет, а качество контента падает
- Huawei Watch GT 5 против GT 5 Pro: какие умные часы выбрать?
2024-07-29 20:27