NVIDIA DLSS Transformer Model больше не в бета-версии
Изображение более высокого качества для супер-разрешения и реконструкции лучей.

На выставке CES 2025 компания NVIDIA представила обновление для своей технологии глубокого обучения Super-Sampling (DLSS), которое получило название DLSS 4. Это обновление включает несколько усовершенствований, таких как прогресс в алгоритмах реконструкции лучей DLSS Ray Reconstruction, суперразрешении и антиалиасинге с использованием алгоритмов шумоподавления (DLAA). Примечательно, что впервые для реализации в реальном времени была использована трансформерная модель из индустрии, согласно NVIDIA.
Купил акции по совету друга? А друг уже продал. Здесь мы учимся думать своей головой и читать отчётность, а не слушать советы.
Прочитать отчет 10-KКак заявила NVIDIAA, ранние версии DLSS в основном использовали сверточные нейронные сети (CNN) для генерации пикселей, сосредотачиваясь на конкретных областях текущего и предыдущего кадров. Однако компания обнаружила, что возможности CNN были исчерпаны. Простым введением новых профилей масштабирования уже недостаточно для дальнейшего прогресса.

Последняя модель Трансформера превосходит CNN по сложности и включает в два раза больше параметров по сравнению с предыдущими моделями повышения разрешения Deep Learning Super-Resolution (DLSS). Заметно, что эта модель больше не фокусируется на конкретном локализованном контенте; вместо этого Визуальный Трансформер анализирует всю сцену, оценивает важность каждого пикселя и учитывает их релевантность между несколькими кадрами.
Насколько я вижу, NVIDIa утверждает, что модель Transformer предлагает более глубокое понимание визуальных сцен. Это приводит к более стабильному выводу пикселей, минимизируя мерцание и подобные искажения, уменьшая ореолы, улучшая детализацию при движении и обеспечивая плавность краёв изображения. Кроме того, это значительно повышает качество изображений Ray Reconstruction, особенно в сложных условиях освещения.

После примерно полугода бета-тестирования, NVIDIYA укрепила основу для будущих улучшений и повышения качества изображения. Более шести лет использовались сверточные нейронные сети (CNN) вместе с суперсэмплингом глубокого обучения (DLSS), и вероятно, что подход на основе трансформеров будет продолжаться около такого же периода времени, постоянно развиваясь.
Смотрите также
- Huawei Watch GT 6 Pro против GT 5 Pro: Что нового в этом носимом устройстве?
- Обзор RingConn Gen 2: умное кольцо, экономящее деньги
- 7 лучших чехлов для Apple iPhone 16 Pro Max 2024 года
- OnePlus 15 против Oppo Find X9 Pro: Флагманы в сравнении
- Huawei Watch GT 6 против Watch GT 6 Pro: Стоит ли выбирать Pro-версию?
- Ответы на 5 самых острых вопросов от Heated Rivalry
- Объявлен актерский состав предстоящей киноверсии «До рассвета»
- 20 лучших циферблатов Samsung Galaxy Watch, которые вам стоит использовать
- 5 процессоров, которые стоит купить вместо Core Ultra 9 285K
- “По-настоящему средний палец”: гуманное изготовление булавок с искусственным интеллектом стоимостью 700 долларов с ограниченным возвратом средств
2025-06-25 12:48