Эта революционная технология памяти может сделать ИИ в 1000 раз более эффективным

Эта революционная технология памяти может сделать ИИ в 1000 раз более эффективным

Как технический энтузиаст с глубоким интересом к искусственному интеллекту (ИИ) и его последствиям для нашего будущего, я не могу не встревожиться ошеломляющим количеством потребления энергии, которое в настоящее время требуют системы ИИ. Цифры поражают: использование искусственного интеллекта уже потребляет столько же энергии, сколько целая страна, такая как Кипр, в 2021 году. Это проблема, которую мы просто не можем себе позволить игнорировать.


Общеизвестно, что потребление энергии ИИ является значительным. Фактически, мировое использование энергии ИИ приравнивается к общему объему энергии, потребляемой страной Кипр в 2021 году.

Как наблюдатель, я бы сказал это так: инженеры из Университета Миннесоты в городах-побратимах придумали новую конструкцию компьютерной памяти, которая потенциально может значительно сократить энергопотребление систем искусственного интеллекта. Их новаторское исследование по этой теме недавно было опубликовано в журнале Nature Computing.

Современные вычислительные системы в первую очередь основаны на архитектуре фон Неймана, в которой различаются компоненты логики и памяти. При регулярном функционировании данные постоянно перемещаются между блоками памяти и процессорами. Эта архитектура формирует фундаментальную основу того, как современные компьютеры обрабатывают информацию.

Несмотря на быстрый прогресс в скорости обработки, технологии ввода-вывода отстают, что приводит к серьезным узким местам. Это связано как с проблемой стенки памяти, когда скорость передачи данных между памятью и процессорами замедляет скорость обработки, так и с повышенным энергопотреблением из-за постоянного перемещения данных между системами. По мнению исследователей, такая перетасовка данных может потреблять в 200 раз больше энергии, чем сами вычисления.

Разработчики разработали методы решения этой проблемы путем реализации вычислительных архитектур «около памяти» и «в памяти». В системах, близких к памяти, логика и память вертикально интегрированы в трехмерную структуру, расположенную как слои сэндвича. И наоборот, системы в памяти встраивают логические компоненты в саму память на одном чипе, напоминающем сэндвич с арахисовым маслом и бананом, с логическими фрагментами, вкрапленными между слоями памяти.

Инновационный подход, предложенный исследовательской группой городов-побратимов, называется вычислительной оперативной памятью (CRAM). Проще говоря, эта конструкция представляет собой полностью цифровое решение в памяти, где логическая обработка происходит внутри самих ячеек памяти. Это означает, что данные для логических операций остаются внутри памяти, что исключает необходимость их переноса куда-либо еще. Команда достигла этого, включив в ячейку памяти реконфигурируемую вычислительную подложку спинтроники. Согласно их выводам, это достижение потенциально может снизить энергопотребление операций ИИ почти в 1000 раз по сравнению с существующими решениями.

В качестве аналитика я изучил результаты исследований CRAM (дополнительная исследовательская память металл-оксид-полупроводник) и ее применения в классификации рукописных цифр с использованием набора данных MNIST. Команда сообщила о значительном улучшении: CRAM потребляет «в 2500 раз меньше энергии» и «в 1700 раз меньше шагов обработки» по сравнению с системой обработки, близкой к памяти, основанной на 16-нм технологическом узле. Проще говоря, я могу сказать, что CRAM значительно превосходит систему обработки данных с оперативной памятью, требуя гораздо меньше энергии и значительно меньше вычислительных шагов для этой конкретной задачи.

Быстро развивающийся сектор искусственного интеллекта сталкивается с серьезными проблемами с точки зрения ресурсов. Новейшие высокопроизводительные графические процессоры, необходимые для приложений искусственного интеллекта, потребляют огромное количество энергии. Например, самая продвинутая модель Blackwell B200 от NVIDIA может потреблять до 1200 Вт и выделять достаточно тепла, что требует жидкостного охлаждения — процесс сам по себе ресурсоемкий.

Поскольку гипермасштабирующие компании, такие как Google, Amazon и Microsoft, стремятся создать необходимые физические основы для предстоящей эволюции искусственного интеллекта, которая включает в себя строительство центров обработки данных беспрецедентных размеров, некоторые из которых даже оснащены атомными электростанциями, будет важно развивать больше энергетических технологий. эффективные вычислительные ресурсы и ресурсы памяти в долгосрочной перспективе. Это не только поможет снизить воздействие на окружающую среду, но также обеспечит устойчивость и доступность технологий искусственного интеллекта.

Смотрите также

2024-07-29 20:27