Qualcomm объявляет о своих чипах для дата-центров AI200 и AI250, предлагающих 768 ГБ памяти LPDDR5 на карту.

Qualcomm входит в гонку чипов для центров обработки данных с искусственным интеллектом.

Qualcomm выпустила AI200 и AI250, новые процессоры, разработанные для ускорения задач искусственного интеллекта в центрах обработки данных. Эти процессоры созданы для эффективной обработки больших объемов данных. AI200, в частности, включает 768 ГБ быстрой памяти, что позволяет ему запускать сложные модели искусственного интеллекта – такие, как те, которые используются для языка и изображений – с меньшим количеством компонентов и без необходимости постоянного доступа к более медленному хранилищу.

💰

"Рынок красный? Это просто сезон скидок для умных инвесторов." - так говорят, чтобы не плакать. У нас — аналитика, которая помогает плакать реже.

Найти недооцененные активы

AI250 разработан со специальной системой, которая ускоряет обработку за счет значительно более быстрого доступа к памяти. Это особенно полезно во время вывода, когда производительность может снижаться из-за постоянного извлечения данных. Qualcomm утверждает, что эта новая конструкция увеличивает скорость памяти более чем в десять раз, а также снижает энергопотребление.

Qualcomm выпустила AI200 и AI250, новые ускорительные карты и системы для центров обработки данных. Они разработаны для значительного ускорения задач искусственного интеллекта при очень эффективном использовании памяти.

— Cristiano Amon

Эти продукты доступны как в виде отдельных карт, так и в виде полноценных жидкостных серверных стоек. Стойки можно расширить с помощью технологии PCIe или объединить в более крупные кластеры с помощью Ethernet. Каждая полная стойка потребляет 160 кВт мощности, что сравнимо с аналогичными GPU-based системами от конкурентов. Ожидается, что AI200 станет доступен в 2026 году, за которым последует AI250 в 2027 году. Qualcomm планирует регулярно обновлять свои технологии для центров обработки данных и объявил, что HUMAIN станет одним из первых пользователей, планируя развернуть до 200 МВт мощности.

При сравнении памяти, AMD Instinct MI350X имеет 288 ГБ памяти HBM3e с пропускной способностью 8 ТБ/с, а следующее поколение (MI400) увеличит это до 432 ГБ. GPU NVIDIA B200 предлагают около 180 ГБ памяти HBM3e, в то время как Intel Gaudi 3 предоставляет 128 ГБ памяти HBM2e. Это помещает стратегию Qualcomm в другую категорию, сосредотачиваясь на общей емкости памяти на карте, а не только на размере HBM.

Смотрите также

2025-10-27 18:04