Как технический энтузиаст с глубоким интересом к искусственному интеллекту (ИИ) и его последствиям для нашего будущего, я не могу не встревожиться ошеломляющим количеством потребления энергии, которое в настоящее время требуют системы ИИ. Цифры поражают: использование искусственного интеллекта уже потребляет столько же энергии, сколько целая страна, такая как Кипр, в 2021 году. Это проблема, которую мы просто не можем себе позволить игнорировать.
Общеизвестно, что потребление энергии ИИ является значительным. Фактически, мировое использование энергии ИИ приравнивается к общему объему энергии, потребляемой страной Кипр в 2021 году.
Как наблюдатель, я бы сказал это так: инженеры из Университета Миннесоты в городах-побратимах придумали новую конструкцию компьютерной памяти, которая потенциально может значительно сократить энергопотребление систем искусственного интеллекта. Их новаторское исследование по этой теме недавно было опубликовано в журнале Nature Computing.
Современные вычислительные системы в первую очередь основаны на архитектуре фон Неймана, в которой различаются компоненты логики и памяти. При регулярном функционировании данные постоянно перемещаются между блоками памяти и процессорами. Эта архитектура формирует фундаментальную основу того, как современные компьютеры обрабатывают информацию.
Несмотря на быстрый прогресс в скорости обработки, технологии ввода-вывода отстают, что приводит к серьезным узким местам. Это связано как с проблемой стенки памяти, когда скорость передачи данных между памятью и процессорами замедляет скорость обработки, так и с повышенным энергопотреблением из-за постоянного перемещения данных между системами. По мнению исследователей, такая перетасовка данных может потреблять в 200 раз больше энергии, чем сами вычисления.
Разработчики разработали методы решения этой проблемы путем реализации вычислительных архитектур «около памяти» и «в памяти». В системах, близких к памяти, логика и память вертикально интегрированы в трехмерную структуру, расположенную как слои сэндвича. И наоборот, системы в памяти встраивают логические компоненты в саму память на одном чипе, напоминающем сэндвич с арахисовым маслом и бананом, с логическими фрагментами, вкрапленными между слоями памяти.
Инновационный подход, предложенный исследовательской группой городов-побратимов, называется вычислительной оперативной памятью (CRAM). Проще говоря, эта конструкция представляет собой полностью цифровое решение в памяти, где логическая обработка происходит внутри самих ячеек памяти. Это означает, что данные для логических операций остаются внутри памяти, что исключает необходимость их переноса куда-либо еще. Команда достигла этого, включив в ячейку памяти реконфигурируемую вычислительную подложку спинтроники. Согласно их выводам, это достижение потенциально может снизить энергопотребление операций ИИ почти в 1000 раз по сравнению с существующими решениями.
В качестве аналитика я изучил результаты исследований CRAM (дополнительная исследовательская память металл-оксид-полупроводник) и ее применения в классификации рукописных цифр с использованием набора данных MNIST. Команда сообщила о значительном улучшении: CRAM потребляет «в 2500 раз меньше энергии» и «в 1700 раз меньше шагов обработки» по сравнению с системой обработки, близкой к памяти, основанной на 16-нм технологическом узле. Проще говоря, я могу сказать, что CRAM значительно превосходит систему обработки данных с оперативной памятью, требуя гораздо меньше энергии и значительно меньше вычислительных шагов для этой конкретной задачи.
Быстро развивающийся сектор искусственного интеллекта сталкивается с серьезными проблемами с точки зрения ресурсов. Новейшие высокопроизводительные графические процессоры, необходимые для приложений искусственного интеллекта, потребляют огромное количество энергии. Например, самая продвинутая модель Blackwell B200 от NVIDIA может потреблять до 1200 Вт и выделять достаточно тепла, что требует жидкостного охлаждения — процесс сам по себе ресурсоемкий.
Поскольку гипермасштабирующие компании, такие как Google, Amazon и Microsoft, стремятся создать необходимые физические основы для предстоящей эволюции искусственного интеллекта, которая включает в себя строительство центров обработки данных беспрецедентных размеров, некоторые из которых даже оснащены атомными электростанциями, будет важно развивать больше энергетических технологий. эффективные вычислительные ресурсы и ресурсы памяти в долгосрочной перспективе. Это не только поможет снизить воздействие на окружающую среду, но также обеспечит устойчивость и доступность технологий искусственного интеллекта.
Смотрите также
- 6 лучших альтернатив iPad в 2024 году
- Обзор Samsung Galaxy Book4 Ultra: это не MacBook Pro
- Garmin Enduro 3 против Garmin Enduro 2: стоит ли обновляться?
- Есть ли в Google Pixel 8a разъем для наушников?
- A24 соблазняет нас выпуском постера и официального трейлера MAXXXINE
- Процессоры AMD следующего поколения ближе, чем мы думали
- 6 ключевых вещей, которые Apple должна исправить в следующей версии macOS
- Intel уже работает над третьим поколением видеокарт
- Что такое ошибка «Ваши часы отстают» и как ее исправить
- Лучшие чехлы для Samsung Galaxy Z Fold 6 в 2024 году
2024-07-29 20:27