Создатель Minecraft раскритиковал DLSS, но сообщество его поправило

Маркус «Notch» Перссон давно известен как человек, который не стесняется высказывать своё мнение. На этот раз под раздачу попала одна из ключевых технологий NVIDIA — DLSS. В посте в X (бывший Twitter) создатель Minecraft назвал DLSS «фундаментально бессмысленной технологией». Однако геймеры, разработчики и техноблогеры очень быстро объяснили, почему это не так.

Вокруг DLSS и так хватает споров, особенно в части генерации кадров (Frame Generation), но заявление Нотча на удивление сильно упростило реальное устройство технологий рендеринга и современных видеокарт.


В чём суть претензии Нотча к DLSS

Перссон сформулировал свою позицию примерно так:

Видеокарта слишком медленная, чтобы запустить игру на нормальной скорости, и вы используете ТО ЖЕ САМОЕ железо, чтобы запустить нейросеть для генерации кадров между существующими.

По его логике получается, что DLSS и в частности генерация кадров — это попытка переложить работу с рендеринга «на то же самое железо», причём без реального выигрыша в производительности. Если видеокарта и так не справляется, то зачем загружать её ещё и ИИ-алгоритмами?

На первый взгляд, такая логика может показаться разумной: если всё крутится на одном GPU, откуда взяться чудесному приросту FPS? Но проблема в том, что Нотч свёл работу сложной архитектуры видеокарты к единому «куску железа», тогда как в реальности она устроена совсем иначе.


Почему видеокарта — это не «одна большая железка»

Ключевой момент, на который указали комментаторы: разные задачи на GPU выполняются разными блоками.

Современные видеокарты NVIDIA разделены на несколько типов ядер:

  • CUDA‑ядра — занимаются классической растеризацией и вычислениями;
  • RT‑ядра — отвечают за трассировку лучей;
  • Tensor Cores — специализированные тензорные ядра для задач машинного обучения и ИИ.

DLSS как раз и опирается на Tensor Cores. То есть, когда игра рендерится в более низком разрешении, а затем картинка «достраивается» до высокого за счёт ИИ-апскейлинга и/или генерации промежуточных кадров, основная нагрузка по ИИ обрабатывается другим типом вычислительных блоков, а не теми же самыми ресурсами, что считаются геометрию и пиксели.

Что это даёт на практике

  • Растеризационная часть GPU рендерит меньше пикселей (ниже разрешение базового кадра).
  • Tensor Cores «додумывают» недостающие детали и интерполируют дополнительные кадры.
  • В результате:
    • нагрузка на основные вычислительные блоки снижается;
    • игра может выдавать больше FPS;
    • картинка всё равно выглядит как высокое разрешение (а иногда даже лучше за счёт сглаживания).

Журналист, тестировавший DLSS и Frame Generation с помощью инструмента NVIDIA Nsight, наглядно показал это графиком распределения нагрузки: объём работы GPU на один «нативный» кадр оказался значительно выше, чем на один «сгенерированный» ИИ-кадр. Именно поэтому модель «рендерим меньше — достраиваем умнее» даёт смысловой и практический выигрыш.


Почему индустрия вообще пошла в сторону DLSS и ИИ

Критика Нотча затронула глубинный вопрос: нельзя ли было просто продолжать наращивать «чистую мощность» видеокарт, а не изобретать DLSS и Tensor Cores?

Ответ на это довольно жёстко сформулировал ещё в 2023 году вице-президент NVIDIA по исследованиям в области глубокого обучения Брайан Катанзаро:

Закон Мура мёртв. Мы как цивилизация не знаем, как продолжать наращивать производительность традиционными способами. Нам нужно действовать умнее.

В классической модели прогресса GPU упираются в физические и энергетические ограничения:
бесконечно увеличивать число транзисторов, частоты и энергопотребление уже нельзя. Параллельно растут требования:

  • 4K и выше;
  • трассировка лучей;
  • тяжёлые шейдеры и сложные эффекты;
  • более детализированные игровые миры.

Растеризация «в лоб» — перерисовывать весь кадр 120 раз в секунду в 4K — становится банально неэффективной. DLSS и подобные технологии — попытка рендерить не всё, а максимально переиспользовать уже посчитанную информацию, достраивая недостающее за счёт умных алгоритмов.


Ограничения и реальные проблемы DLSS

При этом комментаторы, поправляя Нотча, не утверждали, что DLSS — идеальная технология без слабых сторон. Претензии к ней вполне существуют:

  • Качество картинки не всегда идеально
    В отдельных играх и сценах можно заметить артефакты, мыло, ошибки в движении мелких деталей или интерфейса.
  • Frame Generation подходит не всем
    На слабых видеокартах или при агрессивных настройках мультигенерации кадров появляются задержки, артефакты и «резиновое» ощущение управления.
  • Риск «злоупотребления» со стороны разработчиков
    Есть опасения, что некоторые студии начнут слишком сильно полагаться на DLSS и аналогичные технологии, выпуская игры, которые нативно работают откровенно плохо и требуют ИИ‑костылей ради приемлемого FPS.

Все эти моменты — предмет здравой критики. Можно спорить о качестве реализации в конкретных проектах, о справедливости требований к пользователю, о маркетинге вокруг DLSS 4.5 и будущих версий.

Но одно дело — говорить, что технология применяется не всегда корректно, и совсем другое — объявлять её «фундаментально бессмысленной».


Почему заявление Нотча не выдержало проверки

Сообщество быстро указало на ключевые ошибки в позиции создателя Minecraft:

  1. Игнорирование архитектуры GPU
    DLSS использует специализированные тензорные ядра, а не «те же самые ресурсы», которые и так не справляются с рендерингом.
  2. Неверное обобщение DLSS до одной функции
    Перссон фактически свёл всю технологию к Frame Generation, хотя DLSS — это ещё и суперразрешение (upscaling), сглаживание, различные режимы качества и производительности.
  3. Отрыв от реальной практики
    В играх вроде Cyberpunk 2077 или современных проектов с трассировкой лучей DLSS делает не просто «косметическую правку», а обеспечивает разницу между играбельными и неиграбельными значениями FPS при высоком качестве графики.

Да, DLSS не является волшебной палочкой и не лишена компромиссов. Но называть её бессмысленной — значит игнорировать как техническую реальность, так и опыт миллионов игроков, которые ежедневно получают за счёт неё более высокий FPS и лучшее качество картинки.

В этом споре Нотч столкнулся не столько с NVIDIA, сколько с нынешним состоянием игровой индустрии, где «умные» методы рендеринга уже стали не экспериментом, а необходимостью. И именно это сообщество ему и напомнило.