Как технический энтузиаст с глубоким интересом к искусственному интеллекту (ИИ) и его последствиям для нашего будущего, я не могу не встревожиться ошеломляющим количеством потребления энергии, которое в настоящее время требуют системы ИИ. Цифры поражают: использование искусственного интеллекта уже потребляет столько же энергии, сколько целая страна, такая как Кипр, в 2021 году. Это проблема, которую мы просто не можем себе позволить игнорировать.
Общеизвестно, что потребление энергии ИИ является значительным. Фактически, мировое использование энергии ИИ приравнивается к общему объему энергии, потребляемой страной Кипр в 2021 году.
Как наблюдатель, я бы сказал это так: инженеры из Университета Миннесоты в городах-побратимах придумали новую конструкцию компьютерной памяти, которая потенциально может значительно сократить энергопотребление систем искусственного интеллекта. Их новаторское исследование по этой теме недавно было опубликовано в журнале Nature Computing.
Современные вычислительные системы в первую очередь основаны на архитектуре фон Неймана, в которой различаются компоненты логики и памяти. При регулярном функционировании данные постоянно перемещаются между блоками памяти и процессорами. Эта архитектура формирует фундаментальную основу того, как современные компьютеры обрабатывают информацию.
Несмотря на быстрый прогресс в скорости обработки, технологии ввода-вывода отстают, что приводит к серьезным узким местам. Это связано как с проблемой стенки памяти, когда скорость передачи данных между памятью и процессорами замедляет скорость обработки, так и с повышенным энергопотреблением из-за постоянного перемещения данных между системами. По мнению исследователей, такая перетасовка данных может потреблять в 200 раз больше энергии, чем сами вычисления.
Разработчики разработали методы решения этой проблемы путем реализации вычислительных архитектур «около памяти» и «в памяти». В системах, близких к памяти, логика и память вертикально интегрированы в трехмерную структуру, расположенную как слои сэндвича. И наоборот, системы в памяти встраивают логические компоненты в саму память на одном чипе, напоминающем сэндвич с арахисовым маслом и бананом, с логическими фрагментами, вкрапленными между слоями памяти.
Инновационный подход, предложенный исследовательской группой городов-побратимов, называется вычислительной оперативной памятью (CRAM). Проще говоря, эта конструкция представляет собой полностью цифровое решение в памяти, где логическая обработка происходит внутри самих ячеек памяти. Это означает, что данные для логических операций остаются внутри памяти, что исключает необходимость их переноса куда-либо еще. Команда достигла этого, включив в ячейку памяти реконфигурируемую вычислительную подложку спинтроники. Согласно их выводам, это достижение потенциально может снизить энергопотребление операций ИИ почти в 1000 раз по сравнению с существующими решениями.
В качестве аналитика я изучил результаты исследований CRAM (дополнительная исследовательская память металл-оксид-полупроводник) и ее применения в классификации рукописных цифр с использованием набора данных MNIST. Команда сообщила о значительном улучшении: CRAM потребляет «в 2500 раз меньше энергии» и «в 1700 раз меньше шагов обработки» по сравнению с системой обработки, близкой к памяти, основанной на 16-нм технологическом узле. Проще говоря, я могу сказать, что CRAM значительно превосходит систему обработки данных с оперативной памятью, требуя гораздо меньше энергии и значительно меньше вычислительных шагов для этой конкретной задачи.
Быстро развивающийся сектор искусственного интеллекта сталкивается с серьезными проблемами с точки зрения ресурсов. Новейшие высокопроизводительные графические процессоры, необходимые для приложений искусственного интеллекта, потребляют огромное количество энергии. Например, самая продвинутая модель Blackwell B200 от NVIDIA может потреблять до 1200 Вт и выделять достаточно тепла, что требует жидкостного охлаждения — процесс сам по себе ресурсоемкий.
Поскольку гипермасштабирующие компании, такие как Google, Amazon и Microsoft, стремятся создать необходимые физические основы для предстоящей эволюции искусственного интеллекта, которая включает в себя строительство центров обработки данных беспрецедентных размеров, некоторые из которых даже оснащены атомными электростанциями, будет важно развивать больше энергетических технологий. эффективные вычислительные ресурсы и ресурсы памяти в долгосрочной перспективе. Это не только поможет снизить воздействие на окружающую среду, но также обеспечит устойчивость и доступность технологий искусственного интеллекта.
Смотрите также
- 7 лучших чехлов для Apple iPhone 16 Pro Max 2024 года
- 20 лучших циферблатов Samsung Galaxy Watch, которые вам стоит использовать
- Honor Magic 7 Pro против OnePlus 13: битва андроидов
- Xiaomi 14T Pro против Xiaomi 13T Pro: стоит ли обновляться?
- AirPods Max 2 против AirPods Max: в чем разница?
- Samsung Galaxy S25 против Xiaomi 15: как сравниваются Android-смартфоны?
- Разблокируйте DeepSeek: обойдите цензуру за 10 минут!
- LG OLED55G4
- Обзор саундбара LG S95TR: наконец-то хорошо
- Моторола Мото G75 5G
2024-07-29 20:27