Что такое rtx

Что такое rtx

Чем RTX видеокарты отличаются от GTX и что лучше

На выставке Gamescom, летом 2018 года, компания NVIDIA представила новую линейку видеокарт под названием RTX. Новинка достаточно быстро поступила в продажу и стала доступна для геймеров в начале осени 2018-го. В данной статье мы расскажем о том, что такое RTX, чем линейка RTX отличается от GTX и что лучше выбрать, если вы решили обновить свою видеокарту.

Что такое RTX

RTX – это новая серия видеокарт от компании NVIDIA, которая пришла на замену старой серии GTX. Видеокарты RTX построены на базе новой микроархитектуры Turing, которая включает в себя отдельные модули для аппаратной трассировки лучей в реальном времени (RT-ядра) и работы с искусственным интеллектом и глубинным обучением (тензорные ядра).

Что такое rtx

На данный момент серии RTX и GTX выпускаются параллельно. Сейчас к серии RTX относятся видеокарты среднего и высшего ценового диапазона, это:

А к серии GTX относятся бюджетные видеокарты, это:

В дальнейшем, скорее всего, компания NVIDIA откажется от производства видеокарт из серии GTX и полностью переключится на RTX.

Чем RTX отличается от GTX

Линейка видеокарт NVIDIA RTX имеет два основных отличия от серии видеокарт GTX, это:

RT-ядра и тензорные ядра – это отдельные модули внутри графического чипа видеокарты, и они присутствуют только на новых RTX моделях. На видеокартах серии GTX таких модулей нет.

Фактически, наличие этих ядер — это небольшой прорыв на рынке графических ускорителей, поскольку до этого подобного не было ни у NVIDIA, ни у их конкурента AMD. А в будущем, вероятней всего, наличие подобных модулей станет стандартом для всех видеокарт от обоих производителей. Косвенно это подтверждает тот факт, что поддержку аппаратного ускорения трассировки лучей уже анонсировали для игровых консолей следующего поколения.

Что такое rtx

Наличие RT и тензорных ядер открывает целый ряд новых возможностей. Так RT-ядра позволяют значительно ускорить вычисления, связанные с трассировкой лучей. Это позволит разработчикам игр создавать более реалистичное и динамичное освещение, которое сможет быстро меняться в зависимости от игровых событий. Также трассировка лучей, выполняемая ядрами RT, может применяться для создания таких эффектов, как отражения, преломления, тени и ограничение глубины резкости.

Нужно отметить, что трассировку лучшей можно использовать и на видеокартах без RT-ядер. NVIDIA даже выпустила обновление для драйверов, которое открывает эту возможность на видеокартах GTX 10-поколения. Но, без наличия RT-ядер трассировка отнимает слишком много производительности основных модулей графического процессора из-за чего сильно проседает FPS. Играть в таком формате вряд ли возможно, это скорее демонстрация самой технологии.

В свою очередь, тензорные ядра предназначены для ускорения вычислений, связанных с искусственным интеллектом и глубинным обучением. При чем это не обязательно какие-то прикладные или научные задачи. Тензорные ядра могут использоваться и в компьютерных играх, например, NVIDIA применила данную технологию сглаживания кадров. Это решение получило название DLSS. С его помощью можно значительно улучшить качество изображения в играх, при этом не расходуя вычислительную мощность основных модулей графического процессора видеокарты.

Что такое rtx

Кроме этого, RTX имеют ряд более мелких изменений, которые также выгодно отличают их от видеокарт прошлых поколений. Например, видеокарты RTX получили:

Что лучше GTX или RTX

При выборе видеокарты может возникнуть вопрос, что лучше GTX или RTX. Ответ здесь достаточно очевиден, видеокарты RTX лучше GTX практически во всем и обладают уникальными возможностями, которые не доступны для GTX. Поэтому если есть возможность, то лучше покупать именно RTX.

Но, нужно учесть, что GeForce RTX 2060, которая является самой доступной во всей линейке RTX, справляется с трассировкой лучшей достаточно плохо. При включении этой функции FPS сильно проседает и играть становится не комфортно, даже в разрешении FullHD. Поэтому для полноценного игрового опыта с трассировкой лучей вам понадобиться GeForce RTX 2070 или даже более мощная видеокарта.

Источник

Что такое Nvidia RTX, как технология трассировки лучей меняет графику в играх и зачем покупать новую GeForce (коротко и с примерами)

Что такое rtx

Что такое Nvidia RTX?

Что такое rtx

Nvidia RTX — платформа, содержащая ряд полезных инструментов для разработчиков, которые открывают доступ к новому уровню компьютерной графики. Nvidia RTX доступна только для нового поколения видеокарт Nvidia GeForce RTX, построенного на архитектуре Turing. Основная особенность платформы — наличие возможности трассировки лучей в реальном времени (также называемой рейтресингом).

Что за трассировка лучей?

Что такое rtx

Трассировка лучей — функция, которая позволяет имитировать поведение света, создавая правдоподобное освещение. Сейчас в играх лучи двигаются не в реальном времени, из-за чего картинка, зачастую, хоть и выглядит красиво, но всё равно недостаточно реалистична — используемые сейчас технологии требовали бы огромное количество ресурсов для рейтресинга.

Это исправляет новая серия видеокарт Nvidia GeForce RTX, обладающая достаточной мощностью для расчёта пути лучей.

Как это работает?

Что такое rtx

Это побудило Nvidia внедрить дополнительные ядра в видеокарты GeForce RTX, которые возьмут на себя большую часть нагрузки, улучшая производительность. Они также снабжены искусственным интеллектом, задача которого — высчитывать возможные ошибки во время процесса трассировки, что поможет их избежать заранее. Это, как заявляют разработчики, также повысит скорость работы.

И как трассировка лучей влияет на качество?

Shadow of the Tomb Raider, релиз которой состоится 14 сентября этого года:

Что такое rtx

Battlefield 5, которая выйдет 19 октября:

Что такое rtx

Metro Exodus, чей выход намечен на 19 февраля 2019 года:

Что такое rtx

Control, дата выхода которой пока неизвестна:

Что такое rtx

Вместе с этим всем, Nvidia рассказала, какие ещё игры получат функцию трассировки лучей.

Как включить RTX?

А есть ли аналоги у AMD?

Что такое rtx

Технология, которая будет работать на API Vulkan, пока находится в разработке.

Источник

Что такое rtx

Детально разбираем новейшую технологию и объясняем, стоит ли брать кредит на 2080 Ti

Почему NVIDIA продает новые видеокарты по таким заоблачным ценам? Почему название сменилось с GTX на RTX? Стоит ли продавать почку, чтобы любоваться технологией трассировки лучей? Сейчас выясним!

Что такое rtx

Главная европейская игровая выставка Gamescom 2018 началась с анонса следующего поколения видеокарт от NVIDIA. Президент компании Хуан Женьсюнь на специальной презентации представил собравшимся экспертам по железу сразу три новые модели: GeForce RTX 2070, 2080 и 2080 TI. Все на базе анонсированной архитектуры Turing c новой технологией рендеринга изображения через трассировку лучей.

Что такое трассировка лучей?

Основной акцент в новой линейке делается именно на альтернативный способ рендеринга картинки через RTX-технологию вместо растрового метода. Это дает новые возможности для отрисовки визуальных эффектов: в основном речь идет о красивых отражениях, высветлениях и тенях.

Технология, как нам показывают, хорошо справляется с обработкой многочисленных источников света в реальном времени. Тени получаются мягкими, без резких граней. Благодаря этому картинка становится более реалистичной. Это может быть абсолютно неважно в Fortnite или аркадах, но в играх с упором на графику — вроде Battlefield 5 — эффекты смотрятся действительно здорово.

Описывая характеристики видеокарт, NVIDIA вводит новый параметр эффективности устройства: количество одновременных лучей в обработке. Для GeForce RTX 2080 Ti это значение равно 10 миллиардов лучей в секунду.

Замечательный показатель и пока не обозначающий ровным счетом ничего: его на данный момент просто не с чем сравнивать.

Чтобы наглядно понять, что из себя представляет технология, посмотрите видео ниже. Но имейте ввиду, что показанная картинка может серьезно расходиться с действительностью: маркетологи частенько обманывают людей.

Почему поменялось название?

С наименованиями архитектур прослеживается определенная преемственность: Kepler, Maxwell, Pascal и Turing — это фамилии известных математиков. Но это не то, на что стоит обращать внимание: название архитектуры компания меняет каждые два года.

Что важнее, NVIDIA перестает использовать для основной игровой серии привычное уже за десять лет сокращение GTX. Так компания прозрачно намекает, что преемственность преемственностью, но нынешние изменения — это всерьез и надолго.

Что такое rtx RTX от Nvidia — будущее индустрии или уловки маркетологов?

Что такое rtx RTX от Nvidia — будущее индустрии или уловки маркетологов?

Что такое rtx RTX от Nvidia — будущее индустрии или уловки маркетологов?

Еще что-нибудь новое есть?

Порт VirtualLink. Это универсальное соединение под все шлемы виртуальной реальности (Oculus, HTC Vive и другие). Звучит интересно, особенно учитывая то, что сейчас на рынке нет вообще ни одного продукта, который поддерживал бы соединение через этот порт. Проще говоря, NVIDIA сделала устройство «на вырост», задавая новые стандарты.

Кроме того в картах 2080 Ti и 2080 появилась технология NVIDIA NVLink (этакий SLI 2.0), с помощью которой можно соединить видеокарты для совместного переваривания больших нагрузок.

Что такое rtx

Стоит ли продать почку ради этих видеокарт?

Сомневаемся. Подозрения вызывают не только заметные просадки FPS (ниже 60) при включенном RTX уже при 1080р, но и даунгрейд тактовой частоты относительно предыдущего поколения.

Увы, без реальных тестов нельзя предсказать, насколько критично падение с 1582 MHzу GeForce GTX 1080 Ti до 1545 MHz у GeForce RTX 2080 при большем быстродействии памяти другого типа. Также под вопросом остается оптимизация под технологию игр, не показанных на презентации, и состояние драйверов под новую архитектуру.

RTX — это на самом деле технология будущего. Однако право первым войти в это будущее обойдется в целое состояние, и не факт, что все сразу пойдет как по маслу. Чем-то напоминает платный Early Access.

Новая линейка RTX, в чем мы все убедимся в ближайший год, создана для очень четкого сегмента игр, ориентированных исключительно на графические технологии и визуалку. Эти игры должны вызывать картинкой вау-эффект, пусть и в ущерб плавности изображения и с возможными просадками FPS. Потом, безусловно, появятся бюджетные решения, но сейчас покупка видеокарт RTX — это очень специфическая прихоть. Очень дорогая и очень специфическая.

Что такое rtx

Я купаюсь в долларах и подкуриваю сигары банкнотами — покупать?

Если у вас есть лишняя сотня тысяч, которая никак не помешает вашей финансовой стабильности — стоит присмотреться исключительно к старшей модели GeForce RTX 2080 Ti в разогнанном варианте Founders Edition. Ее реальная эффективная производительность должна быть заметно выше, чем у видеокарт текущего поколения. Да и поглазеть вживую на новые эффекты все-таки хочется, правда?

Но даже этот вариант все еще остается покупкой очень дорогого экспериментального девайса под ограниченный набор игр, от которых вы теоретически получите больше эмоций. Не стоит также забывать, что вау-эффект рано или поздно проходит, и любая графика безысходно приедается. Всем остальным стоит подождать вариаций от партнеров NVIDIA или хотя бы первых тестов, как бы круто и многообещающее не выглядела картинка сейчас.

Ну что, найдется у вас лишняя сотка на видеокарту будущего?

Источник

Технология NVIDIA RTX

На последней выставке Gamescom в 2018 году компания NVIDIA представила новую серию своей продукции под торговой маркой GeForce RTX. Графические адаптеры нового поколения обзавелись возможностью поддерживать одноименную технологию трассировки лучей в реальном времени. И сразу же среди геймеров и энтузиастов возникло множество споров о возможностях RTX в современных компьютерных играх. Что представляет из себя новая технология трассировки лучей от NVIDIA – разберёмся в этой статье.Что такое rtx

Трассировка лучей являет собой особый способ имитации поведения света. Лучи света проецируются от экрана на окружающее пространство и либо отражаются, либо преломляются, либо останавливаются на поверхности. В результате мы видим или отражение на поверхности, или изменение цвета, или же появление тени. В настоящее время в компьютерных играх для имитации световых эффектов применяется метод растеризации, при котором используются созданные заранее отражения, карты теней, а глобальное затенение симулируется различными методами. При этом лучи света не имеют эффекта движения в реальном времени, и в результате картинка может выглядеть хоть красиво, но не иметь достаточной реалистичности. Применение технологии NVIDIA RTX позволяет вывести визуальную составляющую компьютерных игр на совершенно новый уровень, позволяя теням и отражениям практически не отличаться от их действия в реальности.

Демо-ролик технологии NVIDIA RTX

Сама по себе технология трассировки лучей не является новшеством. Данный алгоритм уже несколько лет активно используется архитекторами при создании интерактивных проектов зданий и интерьеров, делая картинку более реалистичной. Также эта технология широко применяется в кинематографе, являясь при этом делом достаточно ресурсозатратным. В случае создания спецэффектов в фильмах рендеринг происходит покадрово и занимает большое количество времени.

Компьютерные игры отличает от упомянутых выше вариантов использования трассировки лучей вариативный геймплей, где на формирование изображения у устройства есть лишь доли секунды. Соответственно просчитать все лучи в реальном времени достаточно сложно, и для этого требуется соответствующая мощность. В полной мере это сделать не под силу даже новой графической архитектуре Turing, но всё же компания NVIDIA делает первый шаг в этом направлении, используя RT-ядра в своих видеокартах. В результате появляется гибридный метод рендеринга, заключающийся в попеременной обработке визуальных эффектов — иногда используется растеризация, а иногда трассировка лучей. Это и есть основной принцип технологии NVIDIA RTX. Однако, важным моментом здесь является то, что поддержка такой попеременной обработки эффектов должна быть предусмотрена самими разработчиками игр.

Использование технологии RTX на примере игры Metro Exodus

Но трассировка лучей может быть полезна не только в визуальной составляющей компьютерных игр. Данную технологию можно использовать и для распространения звука, делая его также более реалистичным и глубоким. В играх появляется возможность отражать звуковые эффекты от действия на тех или иных поверхностях и предметах, что весьма сильно влияет на восприятие игры в лучшую сторону.

Также рассматриваемая технология прекрасно применима в построении искусственного интеллекта противников (ботов) в играх. Например, подобным методом можно производить расчет области зрения искусственного интеллекта, тем самым виртуальные противники или напарники будут лучше ориентироваться на локациях — видеть объекты, противников и возможные укрытия. Кроме прочего, новая технология позволяет рассчитывать точки столкновения тех или иных предметов, что способно изменить в лучшую сторону физику в играх. Однако, пока все эти улучшения находятся лишь в начале своего развития.

Как говорилось выше, использование трассировки лучей для всех объектов в компьютерных играх является очень затратным делом с точки зрения производительности. Поэтому, современная линейка видеокарт NVIDIA GeForce RTX в связи со сложностью технологии имеет достаточно высокую цену. Общее восприятие ситуации также подпортилось из-за многочисленных слухов касательно новых видеокарт. Люди, которые не особо разбираются в технологиях построения графики, принялись на различных интернет-площадках утверждать, что новый метод не более чем успешный маркетинг и не несет каких-либо значительных изменений по части визуальной составляющей компьютерных игр. Но, каждый имеет право на свою точку зрения.

Необходимо также сказать о том, что применение новой технологии в немалой степени зависит и от самих разработчиков компьютерных игр. Если проводить аналогию, то в умелых руках тот или иной инструмент может создать шедевр, а в неумелых руках может всё испортить. Также дела обстоят и с применением в компьютерной графике технологии NVIDIA RTX. С её помощью можно изобразить максимально реалистичный свет и тени в играх, а можно создать «глянцевую войну», как например это получилось в демо-ролике Battlefield V.

Демо-ролик технологии RTX на примере игры Battlefield V

В заключение отметим, что на наш субъективный взгляд новая технология от NVIDIA имеет достаточно большой потенциал в игровой индустрии и способна значительно улучшить не только визуальную составляющую в компьютерных играх, но также звук, элементы физики и поведения искусственного интеллекта. Будем надеяться, что уже в ближайшей обозримой перспективе видеокарты с технологией RTX станут доступны широкому кругу любителей компьютерных игр, а не только геймерам с «тугим» кошельком.

Источник

Мое мнение о NVidia RTX: революция, маркетинг или поворот не туда

реклама

Здесь явно прослеживается связь с новой на тот момент технологией Ray Tracing, которая открывала новые возможности в создании игр. Трассировка лучей могла позволить вывести графику на «новый технический уровень». Проще говоря: картинка станет «красивше».

Для задействования данной технологии на видеокартах нового поколения имелся специальный исполнительный блок (RT-ядра), который и должен был это осуществлять. На презентациях все выглядело очень красиво и перспективно. Все это заметно омрачилось, когда товарищ в кожаной куртке (но без маузера) озвучил рекомендованные цены новых карт. Особого оптимизма они не встретили даже в Европе и США, не говоря о странах победнее. Ну, что ж, за «революционные технологии» надо платить больше.

Да и количество игр с «лучами» на тот момент было очень невелико. Оставалось надеяться, что это только начало пути.

реклама

В 2020 году анонсируется новое поколение карт RTX 30xx (Ampere). Тут все то же, но «улучшенное и дополненное». Правда, во многом карты стали для обычных пользователей виртуальными, но это совсем другая история.

Немного остановимся на самих «лучах» в играх. Они пока носят «дополнительный характер», т.к. данную технологию можно и не активировать. Многие могут сами сравнить изображение в играх с активацией Ray Tracing и без оного. Вот несколько примеров.

реклама

реклама

Положа руку на сердце можно сказать, что игра переходит на абсолютно другой уровень графики? Нет. Ни разу. Можно сколько угодно спорить на данную тему, но фактом остается одно: реалистичность графики не имеет никакого отношения к «играбельности». Хотите просто красивую картинку? Смотрите демо ролики, они зачастую превосходны. От игр же требуется нечто большее. Одной красотой сыт не будешь (смотрим список провальных игр).

Теперь перейдем непосредственно к реализации карт поколений Тьюринг и Ампер. Добавление тензорных ядер привело к росту потребления карт в сравнении с предыдущими поколениями. Если раньше от поколения к поколению потребление постепенно снижалось, то теперь процесс пошел вспять.

Итак, самая экономичная карта в топовой версии GTX 1060 Jetstream:

Сейчас опять набросятся гневные фанаты и будут кричать, что сравнивать Джетстрим с Дуал нельзя. Можно, еще как можно. Это топовые версии в линейках. Ничего лучше просто нет. И так почти у всех вендоров.

Думаете, что просто специально взял младшую карту в линейке? Ничуть, смотрите на плату от RTX 3080:

Налицо явная экономия на картах. И это при росте цены на них (речь про рекомендованные). А уж абсолютно невнятное распределение количество видеопамяти на картах Ампер, просто не поддается никакому пониманию. Зачем на RTX 3060 12 Гб памяти? Многие скажут: на будущее. Хорошо. Тогда почему у RTX 3080 всего 10? У нее «будущее», вероятно, короче?

А проблемы с картами серий RTX? Они ведь не из серии «вендор накосячил» (хотя и такое было). Надеюсь, помнят «вторжение инопланетян» на первые ревизии Тьюрингов или «эпопею» с SMD-компонентами на Амперах? А уж половина горяченных чипов памяти на «спине» RTX 3090 без нормального охлаждения вообще за гранью понимания. Ребята, вы там не оборзели случаем?

Отличные карты сделали и Sapphire и PowerColor:

Ну, нет у них DLSS и «лучей Хуанга», но это вовсе не смертельно. При более низкой стоимости эти бы карты покупались. Если бы.

Источник

NVIDIA RTX vs GTX: в чем разница?

Если вы не в курсе последних новостей в мире аппаратного оборудования или только недавно заинтересовались сборкой своего ПК и думаете о приобретении видеокарты от Nvidia, то, несомненно, заметили, что упомянутая компания предлагает два разных на первый взгляд типа графических процессоров: GTX и RTX.

Итак, что же это все означает, в чем разница между моделями GTX и RTX, и какую из них стоит выбрать? Мы ответим на все эти вопросы, так что рекомендуем прочитать статью до конца!

Основы

Что такое rtx

Все игровые графические процессоры Nvidia принадлежат их собственному бренду GeForce, который появился в 1999 году с выпуском GeForce 256. С тех пор компания выпустила сотни различных видеокарт, а кульминацией стали три последних модельных ряда: серия GeForce 20, выпущенная в 2018 году, серия GeForce 16, выпущенная в 2019 году, и серия GeForce 30, выпущенная в 2020 году.

На сегодняшний день серии GeForce 20 и GeForce 30 состоят исключительно из графических процессоров RTX, а серия GeForce 16 – из видеокарт GTX. Итак, что же означают все эти буквы? На самом деле ни GTX, ни RTX, не являются аббревиатурами и не имеют конкретного значения как такового. Они существуют просто ради маркетинговых целей.

Nvidia использовала несколько похожих двух- и трехбуквенных обозначений, чтобы предоставить пользователям общее представление о том, какую производительность может предложить каждый графический процессор. Например, производители использовали такие обозначения, как GT, GTS, GTX, а также многие другие на протяжении многих лет, однако лишь GTX и новая RTX «выжили» до наших дней.

GeForce 20 / 30 против GeForce 16

Что такое rtx

Прежде всего мы должны отметить, что серии 20 и 16, то есть последние графические процессоры RTX и GTX, основаны на одной и той же микроархитектуре видеокарты Turing, которую Nvidia впервые представила в 2018 году. В свою очередь, серия 30 основана на новейшей архитектуре Ampere.

Однако, несмотря на то, что GeForce 20 и 16 основаны на одной архитектуре, 20-я вышла первой. После запуска в 2018 году, производители хотели сосредоточиться на расширенных функциях, которые могла предложить новая архитектура. Линейка состояла из графических процессоров верхней части среднего сегмента и high-end видеокарт, которые и могли продемонстрировать указанные функции, и это были первые модели под обозначением RTX.

Между тем, серия 16 появилась годом позже, потому что Nvidia нужно было предложить несколько более экономичных решений для тех, кто не мог позволить себе потратить больше 400 долларов на видеокарту. Эти графические процессоры, однако, не имели вышеупомянутых расширенных функций, поэтому сохранили старое обозначение GTX.

Что такое rtx

Тем не менее в настоящее время графические процессоры GTX действительно слабее, чем RTX, но так и было задумано самими разработчиками. Название RTX было введено в основном ради маркетинга, чтобы новые графические процессоры воспринимались как большой шаг вперед, как нечто действительно новое, а само обозначение было вдохновлено главной новой функцией, представленной в серии 20: трассировка лучей в реальном времени.

Сейчас трассировка лучей в реальном времени стала возможной благодаря RT-ядрам, которые встречаются только в сериях 20 и 30 и отсутствуют в моделях серии 16. Вдобавок ко всему существуют тензорные ядра, которые обеспечивают ускорение ИИ, а также повышают производительность трассировки лучей и обеспечивают суперсэмплинг глубокого обучения в играх.

Если убрать эти две ключевые характеристики из общей картины, видеокарты GTX 16 серии и графические процессоры RTX серий 20 и 30 не так уж сильно отличаются. Очевидно, что более дорогие модели RTX имеют больше транзисторов, больше ядер, лучшую память и многое другое, из-за чего они способны предложить лучшую общую производительность, чем более дешевые аналоги в лице GTX. Однако они не обязательно обеспечивают лучшее соотношение цены и качества.

Итак, что это за новые функции и стоит ли покупать графический процессор RTX?

Что такое RT ядра?

Что такое rtx

Как упоминалось выше, RT ядра представляют собой ядра графического процессора, предназначенные исключительно для трассировки лучей в реальном времени.

Так что же делает трассировка лучей с графикой видеоиграх? Технология позволяет добиться более реалистичного освещения и отражений. Это достигается путем отслеживания обратной траектории распространения луча, что позволяет графическому процессору выдавать гораздо более реалистичное моделирование взаимодействия света с окружающей средой. Рейтрейсинг по-прежнему возможен даже на графических процессорах без RT ядер, но в таком случае производительность просто ужасная, даже на флагманских моделях типа GTX 1080 Ti.

Говоря о производительности, трассировка лучей в реальном времени на самом деле сильно влияет на производительность даже при использовании с графическими процессорами RTX, что неизбежно приводит к вопросу — стоит ли вообще использовать данную технологию?

По состоянию на 2020 год чуть множество игр поддерживают трассировку лучей.

Видео выше показывает, как трассировка лучей выглядит в игре Control (2019): графические улучшения, обеспечиваемые трассировкой лучей, значительны. Однако функция сокращает показатель FPS вдвое, со стабильных 60 до 30, и это с высокопроизводительной видеокартой RTX 2070 Super!

Трассировка лучей в реальном времени — это важное достижение в области гейминга, которое в ближайшие годы значительно улучшит графику видеоигр. Тем не менее, на прямо сейчас аппаратное обеспечение недостаточно мощное, и разработчики еще не в полной мере используют потенциал функции.

Что такое тензорные ядра?

Что такое rtx

Несмотря на то, что трассировка лучей является наиболее «продаваемой» функцией графических процессоров RTX серий 20 и 30, архитектура Turing также представила еще одну важную новую функцию в основной линейке GeForce — расширенные возможности глубокого обучения, которые стали возможны с помощью специальных тензорных ядер.

Эти ядра были представлены в 2017 году в графических процессорах Nvidia Volta, однако игровые видеокарты не были основаны на этой архитектуре. Таким образом, тензорные ядра, присутствующие в моделях Turing, на самом деле являются тензорными ядрами второго поколения. Касаемо игр, то у глубокого обучения есть одно основное применение: суперсэмплинг глубокого обучения, сокращенно DLSS, который представляет собой совершенно новый метод сглаживания. Итак, как именно работает DLSS и лучше ли он, чем обычные методы сглаживания?

DLSS использует модели глубокого обучения для генерации деталей и масштабирования изображения до более высокого разрешения, тем самым делая его более резким и уменьшая искажения. Вышеупомянутые модели глубокого обучения создаются на суперкомпьютерах Nvidia, а затем приводятся в действие тензорными ядрами видеокарты.

Суперсэмплинг обеспечивает более четкое изображение, но при этом требует меньших затрат на оборудование, чем большинство других методов сглаживания. Более того, технология может заметно улучшить производительность при включенной трассировке лучей, что хорошо, учитывая, насколько высока производительность данной функции.

Однако, как и в случае с трассировкой лучей, список игр, которые в настоящее время поддерживают DLSS, к сожалению, довольно мал. Впрочем, это наверняка изменится в будущем.

Заключение

Что такое rtx

Что ж, пришло время подвести итоги: обозначение RTX было введено Nvidia в основном ради маркетинговых целей, из-за чего графические процессоры на архитектуре Turing 20-й серии выглядели как более крупное обновление, чем они есть на самом деле.

Конечно, RTX-модели оснащены крутыми новыми элементами, которые полностью раскроют свой потенциал в обозримом будущем, а что касается чистой производительности, новейшие видеокарты на архитектуре Ampere достаточно сильно опережают старые графические процессоры GTX на базе Pascal, которые продавались по примерно той же цене.

Принимая во внимание все вышесказанное, мы бы не сказали, что графические процессоры RTX стоит покупать только ради трассировки лучей и DLSS, поскольку производительность всегда должна быть на первом месте, особенно если вы хотите получить максимальную отдачу от своих денег. С другой стороны, эти технологии будут развиваться в ближайшем будущем, и через пару лет графические чипы GTX окажутся откровенно устаревшими. Если вы собираетесь приобрести новую видеокарту, то, возможно, стоит ознакомиться с данной статьей, где мы перечислили лучшие видеокарты, доступные на рынке прямо сейчас.

Считаю что трассировка лучей является не столь революционной функцией ради которой стоит обновляться на новое поколение, сколько её метод оптимизации под названием DLSS. Уже который год в сети плавают слухи что у NVIDIA в рукаве был припасён ход, позволяющий сделать реальный прогресс в плане оптимизации — но зная насколько сильно компания погрязла в маркетинге, ждать от них такого подарка «бесплатно» было бы максимально глупо, и по факту так и получилось.
Трассировка же стала тем самым триггером, который заставил их применить этот козырь, и как мы видим по тестам 2.0 версии — результаты действительно впечатляющие, а уж если и вовсе отключить Трассировку, то мы как раз и получаем тот самый долгожданный буст фпс в 2 раза, который к тому же ещё и умудряется «улучшать» картинку из натива… Просто фантастика.
У них в планах сейчас вообще стоит задача добиться включения поддержки DLSS по умолчанию на уровне настройки видеоадаптера через панель нвидии, но это ориентировочно должно быть в версии 3.0, а пока что только вчера вышло обновление под номером 2.1 которое добавляет режим «Ультра производительности» для Death Stranding — кстати есть ли по этому поводу тесты?)

Чего ждать в будущем? Первое время конечно всё будет сказочно — буст фпс в 2 раза это действительно круто, и только совсем глупые люди не будут таким пользоваться, особенно на самых бюджетных версиях RTX серии в виде 2060, которые были слегка быстрее и чутка дороже тех же 1660 версий, но по факту дадут двойной разрыв в производительности с ними.
Но почему же это чисто маркетинговая технология, которая по факту может работать на всех видеокартах, но нвидиа заботливо двигает её только под новые серии? Да потому что у неё есть аналог, и точно так же как и Crytek сделали свой софтовый вариант трассировки, AMD сделали на уровне софта аналог под названием FidelityFX. Естественно она получилась хуже, но тот факт что это всё базируется чисто на программном уровне — а не с фейковым использованием каких то там специальных ядер, намекает нам на то что кое кого сильно обманывают, но если всё таки довести до ума данную функцию и включить её поддержку на программном уровне — то AMD будет иметь серьёзный ответ на прорывные технологии предлагаемые Хуангом в 3 тысячной серии.

Источник

Что такое трасировка лучей

В мире компьютерных игр в 2018 году произошло событие, которое многие эксперты отнесли к разряду революционных. Речь идет о внедрении в игры трассировки лучей.

По сути, это симуляция модели человеческого зрения, которая вплотную приближает компьютерную графику к кинематографическому уровню (см. примеры).

Что такое rtxЧто такое rtxЧто такое rtxЧто такое rtxЧто такое rtxЧто такое rtxЧто такое rtxЧто такое rtxЧто такое rtxЧто такое rtxЧто такое rtxЧто такое rtxЧто такое rtxЧто такое rtx

Эта информация доступна также в формате видео:

Трассировка лучей в компьютерной 3D-графике используется давно. Однако, раньше высокая сложность расчетов и недостаточное быстродействие видеокарт не позволяли с нужной скоростью рендерить картинку в компьютерных играх. Вместо трассировки использовались более простые и значительно менее требовательные к видеокартам алгоритмы.

Кое-кто пророчествовал начало игрового использования трассировки не ранее 2025 года. Однако, уже в 2018 году в графические чипы карт Nvidia Turing были внедрены специальные аппаратные блоки, включающие так называемые тензорные и RT-ядра. Они оптимизированы под расчеты трассировки и значительно ускоряют их. Новшество получило название Nvidia RTX. Видеокарты с наличием таких аппаратных средств не сложно отличить по аббревиатуре «RTX» в их названии. Это, например:

Nvidia RTX положила начало использованию трассировки лучей в компьютерных играх. Компания Microsoft дополнила DirectX 12 расширением DXR (DirectX Raytracing), а разработчики игровых приложений тут же взяли его на вооружение.

Рендеринг отдельных элементов графики с использованием трассировки появился в играх Metro Exodus, Shadow of the Tomb Raider, Battlefield V, Control. Таких игр пока не много. Но это не на долго. В дальнейшем трассировка лучей в той или иной степени будет использоваться в большинстве компьютерных игр.

В апреле 2019 года Nvidia выпустила специальный драйвер, добавляющий поддержку DirectX Raytracing также и в некоторые видеокарты архитектур Pascal и Turing, не обладающие специальными аппаратными средствами. Для расчетов в них используются универсальные шейдерные блоки, поэтому в список поддерживаемых попали только достаточно быстрые для этого модели. В частности:

В остальных видеокартах поддержки трассировки нет. Nvidia решила не добавлять ее в более старые линейки своих графических ускорителей, включая флагман GTX 980 Ti, который, вероятно, мог бы справиться с задачей не хуже, чем GTX 1060.

О намерении внедрить поддержку real-time трассировки лучей в свои продукты заявили и представители AMD. В картах Radeon появление соответствующих аппаратных средств (аналога Nvidia RTX) ожидается ближе к 2021 году. На программном же уровне поддержка графическими ускорителями AMD трассировки возможна уже сейчас (через Pro Renderer и Radeon Rays). Однако, в игровых приложениях ее пока нет.

Но есть ли в этом смысл? Многочисленные тесты свидетельствуют, что именно аппаратная поддержка трассировки лучей является ключевым условием комфортной игры. Ну, по крайней мере, на современном этапе эволюции графических карт и соответствующего программного обеспечения.

Например, в игре Metro Exodus при разрешении экрана Full HD с максимальными настройками графики, но без трассировки лучей, GeForce GTX 1080 Ti обеспечивает быстродействие на уровне 77 кадров в секунду. RTX 2060 при аналогичных условиях выдает только 56 кадров в секунду. Преимущество первой видеокарты

Если же в настройках игры включить трассировку лучей, расстановка сил кардинально меняется. GTX 1080 Ti, не имеющая аппаратной поддержки, выдает всего 25-26 кадров в секунду, а RTX 2060, у которой такая поддержка есть, – 40. Здесь уже не абы какое преимущество второй видеокарты (

37%). И это при том, что RTX 2060 является самой «медленной» картой с наличием аппартных средств трассировки.

Сложить более полное представление о влиянии трассировки на игровое быстродействие помогут размещенные ниже графики.

Выводы же напрашиваются следующие:

В компьютерных играх трассировка лучей в режиме реального времени с приемлемым уровнем быстродействия возможна при условии ее аппаратной поддержки видеокартой.

Программная ее поддержка пока-что выглядит не более, чем средством демонстрации широким массам преимуществ новой технологии. За счет использования для трассировки только универсальных шейдерных блоков обеспечить плавный игровой процесс не способны даже самые быстрые современные видеокарты.

Источник

Технология RTX и новые видеокарты от Nvidia

C 20 сентября 2018 года в продаже появилась линейка видеокарт от NvidiaGeForce RTX 20 Series с архитектурой Turing. Главной их особенностью, помимо улучшенной производительности, стала поддержка технологии трассировки лучей в реальном времени или ray tracing. Это стало возможным благодаря RT-ядрам, которые на аппаратном уровне ускоряют трассировку до десяти раз, если сравнивать с видеокартами прошлого поколения.

Так как технология относительно новая, далеко не все с ней знакомы. Сегодня мы решили рассказать о рейтрейсинге, видеокартах RTX и улучшении производительности. Делать это мы будем, используя нашу «белую сборку» с комплектующими от Corsair и видеокартой NVIDIA GeForce RTX 2060.

Что такое rtx

Трассировка лучей

Революционной технологию не назовешь, ведь рейтрейсинг успешно применялся до этого. От архитектурных проектов до кинематографа — благодаря трассировке лучей специалисты делали свои сцены реалистичнее.

Что такое rtx

Единственной проблемой до релиза RTX карт был тот факт, что рейтресинг требовал огромных вычислительных мощностей и его реализация в играх казалась нецелесообразной. При создании фильмов рендеринг происходит покадрово и может занимать дни и даже недели. В компьютерных играх сцены должны появляться перед нами в реальном времени, иначе получится в лучшем случае слайд-шоу.

Теперь ситуация изменилась и RT-ядра справляются с обработкой информации в разы быстрее. Например, они просчитывают лучи для визуализации отражений в Battlefield V и глобального освещения в Metro Exodus. Но, несмотря на существенный прорыв в технологиях, говорить о path-tracing пока рано, ведь вместо первичных лучей пока используется растеризация, а для теней, отражений, глобального освещения и фонового затенения используется трассировка лучей в реальном времени. И хотя компания Nvidia сделала большие шаги в этом направлении, даже благодаря видеокартам GeForce RTX нам доступен только гибридный метод рендеринга визуальных эффектов с растеризацией (переводом изображения из векторного формата в пиксели для вывода на дисплей), которая дополняется рейтрейсингом. Так, когда атрибуты геометрии трехмерной сцены растеризируются в «скриншоты», при помощи трассировки лучей берется нормаль (перпендикуляр в точке) и глубина пикселя из растровых слоев — по этим данным и рассчитывается, в каком направлении полетит луч.

Что такое rtx

Как работает рейтрейсинг?

Что такое rtx

Скрытые возможности трассировки лучей

Что такое rtx

Также, рейтрейсинг способен улучшить искусственный интеллект, от «затупов» которого порой рушатся даже лучшие игровые проекты. Например, можно рассчитывать области зрения ИИ, чтобы искусственные противники лучше ориентировались на локациях и использовали их по-максимуму (убегали в укрытия, определяли местонахождение противников, использовали особенности окружающей среды). А еще рейтрейсинг может улучшить физику в играх, рассчитывая коллизию разных предметов.

Вот только перечисленные вещи пока еще только начали развиваться, и полноценную их реализацию в компьютерных играх мы увидим только в будущем.

Оправдана ли цена?

Что такое rtx

Мы протестировали технологию, и вы уже видели несколько скриншотов-сравнений из Battlefield V. Можно заметить, что со включенным RTX картинка получается живее и реалистичнее. Кроме того, отражения на объектах в разы лучше и детализированнее. Вы можете возразить, что в сетевом шутере мало кто обращает внимание на подобные вещи и в основном игроки гонятся за высоким FPS, тренируют тактическое понимание на разных картах или прокачивают меткость. Однако, это лишь одна из первых игр, в которых реализован рейтрейсинг. А если речь будет о приключенческом тайтле или фэнтезийном мире вроде The Elder Scrolls VI? Там фотореалистичная графика нужна, и она очень сильно повлияет на атмосферу. Так что, технология явно перспективна для сотен будущих ААА-проектов.

Nvidia DLSS — Deep Learning Super Sampling

Что такое rtx

Что такое rtx

Особенность DLSS в возможности обучения для каждой отдельной игры. В этом преимущество и недостаток такой техники сглаживания. Если разработчики вложат достаточно сил для тренировки нейронной сети, результат окажется потрясающим и прирост FPS порадует геймеров. Сэкономив на этом, можно не надеяться на значительное улучшение картинки (да и FPS).

Важно понимать, что технология рассчитана в первую очередь на высокие разрешения — именно на них вы заметите наибольшее изменение производительности. Кроме того, на разрешениях уровня 2560×1440 и 3840х2160 качество изображения получится намного лучше, чем в привычном 1080p.

Если упростить вышесказанное до нескольких предложений, то благодаря DLSS производительность в играх существенно вырастет. Но в каждой из них результат будет зависеть от сознательности разработчиков. А еще от выставленного вами разрешения. Наконец-то можно будет гонять в любимые игрушки в 4K-разрешении со включенным сглаживанием при стабильных 60 FPS. Круто же!

Источник

Как работает трассировка лучей и платформа NVIDIA RTX

Всем привет. В марте я выкладывал видео о преимуществах трассировки лучей в Metro Exodus, в котором анонсировал работу над полноценным материалом по этой теме. Вот, собственно, он. Я собрал максимум информации, чтобы представить полную картину того, как работает трассировка лучей в играх, и как на это повлияли Microsoft и NVidia.

Жду вашего мнения по поводу ролика в комментариях здесь, или на YouTube. Приятного просмотра!

Хоть что-то по тематике.
Бля, аж час. Спасибо)

Надеюсь, видео понравится и будет интересно)

Вот на этом я решил прекратить читать ибо Исход и Батла 5 известны как образцы отвратительнейшей реализации трассировки лучей.

Почему? Батла да, там говно и криво работает и вроде даже не правят.
Но в Метро же типа лучшее глобальное освещение с помощью RTX?
https://www.youtube.com/watch?v=PBhnTVuD31I
https://www.youtube.com/watch?v=eiQv32imK2g

В метро лишь два, а то и один отскок. Из-за чего многие сцены слишком темные, нереалистично темные. И ладно бы это было просто где-то в геймплее. Но сложно забыть кадры когда идет сюжетный диалог и с RTX густая тень лежит на лице собеседника, которое по данной причине не видно. На глобальном освещении весь RTX и закончился в метро.

Так он только для него и использовался ¯\_(ツ)_/¯

Спасибо, видос не еще не досмотрел, но о реальности рейтресинга наслышан.
Кстати. в видео будет говориться об анонсе UE5 и том, что в демо ничего не показали на рейтрейсинге?

К сожалению, сценарий писался задолго до анонса UE5, поэтому нет. Но в видео и без этого информации очень много, причём разложено всё максимально понятно. После просмотра будет понятно, почему это можно к любым современным движкам применить)

применять RT и на UE4 могут, вопрос в том, что продвижение UE5 под некстген ознаменовалось такими фичами, как нанит(новый подход к геометрии) и Люмен(GI, который выглядит практически как рейтрейс, но создан на удачной комбинации фейковых методов и темпорал инфы). И все это без упоминания фич DXR.
Причем нанит это такая штука, с которой RT реализовать будет практически невозможно. Инфа отсюдова(продолжительная АНАЛитика, сразу предупреждаю)

На основе всей той информации, которую я собрал (видео делалось 3 месяца), не вижу каких-то проблем с там, чтобы запускать трассировку в совокупности с Nanite. Это же просто технология увеличения полигонов, которая очень похожа на Mesh Shading(если это не сам Mesh Shading). Трассировка-то работает с ускоряющими структурами, ей пофиг на то сколько там полигонов. Она работает с готовым изображением же, ну, то есть с пикселями в буферах

насчет противоречий нанита и ртх все просто.
нанит стремится отрезать все лишнее, показывая только информацию о геометрии, которую видит камера. За счет этого и получается такая экономия как вычислительной мощи, так и памяти(виртуализация, инфа об ассетах может браться непосредственно ссд, как с виртуальной врам).
А эффекты рейтрейсинга, наоборот, требуют глобальности, траты ресурсов на то, чего в кадре и не видно. А для этого нужны и доп. мощности ГПУ, и доп. память с высокой псп.
И крайне сомнительно, что в ближайшие годы в риалтайм графике сменится тренд к стремлению все делать в скринспейсе на тренд глобальности. Т.к. первое всегда будет намного быстрее, с более высоким «визуальным кпд», что и важно в риалтайм графике.

Видео смотрел, в том и проблема, что ответа на это нет. есть у тебя лужа в кадре и собака не в кадре. Эта собака состоит из кучи полигонов, рендерится шерсть, оклюжен и прочее, все растеризацией.
Ты хочешь получить отражение собаки, разумеется, чтобы на отражении был и AO И шерсть и ассет хорошего качества.
А значит тебе в любом случае понадобится все это считать методами растеризации и уже потом брать эту инфу для рейтрейсинга отражения.
если считаешь иначе, то объясни на пальцах, где ты возьмешь инфу о собаке, затенении и еще куче эффектов растеризации для отражения, кто ее будет считать, где она будет храниться.

Думаю, ответ на этот вопрос нужно будет поискать в информации о самом движке. Пока что не готов как-то прокомментировать. Я лишь могу предполагать пока что)

И именно таким принципам руководствуется Люмен. Там для глобального спейса и крупных структур используются пробсы, для средних объектов какая-то другая техника и для мелких скринспейс решение. Это все сделано потому что в глобал спейсе просто не будет высокодетализированной и качественной инфы, потому и сгодятся грубые пробсы.

И это частично сходится с тем, что в демке UE5 мы не видели зеркальных отражений, т.е. разрабы придумали, как красиво фейкать GI, но пока еще не придумали как дешего фейкать отражения, значит и показывать нечего. Скорее всего SSR это лучшее халявное решение и дальше только брутфорс.

так же это неплохо коррелирует с тем, что именно в батле 5 почему-то жутко прожорливая на фпс реализация RTX, а в метро более легкая. Хотя по идее, GI более жирный и важный эффект,чем отражения. Видимо потому, о чем я написал выше. Для RTX отражений просто вышла огромная нагрузка на растеризацию объектов вне скринспейса, что даже видно по неадекватному жору памяти с RTX.

Источник

Что такое rtx

На фоне неумолимо приближающегося выхода в свет графических адаптеров NVIDIA серии GeForce RTX 40 поток информации, приоткрывающий завесу тайны над техническими характеристиками и уровнем быстродействия предстоящих моделей «зелёной команды», и не думает иссякать: собрать все данные, полученные из разных источников, вызвался энтузиаст под ником harukaze5719, опубликовавший сводную таблицу предполагаемых спецификаций видеоадаптеров нового поколения.

реклама

Источник изображения: Wccftech

Исходя из представленных данных, топовым представителем предстоящего семейства графических адаптеров NVIDIA может стать полупрофессиональная модель серии TITAN, базирующаяся на полновесном чипе AD102 с 18432 CUDA-ядрами, 384 блоками рендеринга, 576 тензорными и 144 RT-ядрами «на борту», имеющая в своём распоряжении 48 Гбайт видеопамяти при 384-битной шине.

Источник изображений: Twitter, harukaze5719

Флагманская игровая модель в лице предполагаемой GeForce RTX 4090 Ti может получить 18176 ядер CUDA, 384 блока операций растеризации, 568 тензорных и 142 RT-ядра, а также 48 Гбайт памяти типа GDDR6X с эффективной частотой 24 ГГц, а уровень TBP новинки составит 800 Вт.

Предтоповая видеокарта, GeForce RTX 4090, будет основана на чипе, функционирующем на частотах 2235/2520/2750 МГц в базовом/boost/максимальном режимах и снабжённом 16384 FP32-ядрами, 384 блоками ROP, 128 RT- и 512 тензорными ядрами, а также обзаведётся 24 Гбайт видеопамяти типа GDDR6X, характеризующейся эффективной частотой в 21 ГГц, и шиной в 384 бит. Ожидается, что модель будет производиться в двух вариациях с TBP в 450 и 600 Вт.

Игровой видеоадаптер GeForce RTX 4080 будет базироваться на GPU, наделённом 9728 ядрами CUDA, 224 блоками рендеринга, 304 тензорными и 76 RT-ядрами, видеобуфером объёмом 16 Гбайт с чипами памяти типа GDDR6X, функционирующими на эффективной частоте 23 ГГц. При этом уровень TBP новинки расположится на отметке в 340 Вт.

Наконец, «сердцем» для GeForce RTX 4070 станет графический процессор, работающий на частотах 2310/2610/2800 МГц в номинальном/boost/максимальном режимах и имеющий в своём распоряжении 7680 CUDA-ядер, 160 блоков ROP, 60 RT- и 240 тензорных ядер. Кроме того, новинка сможет похвастаться наличием 12 Гбайт памяти GDDR6X с эффективной частотой 21 ГГц, а её уровень TBP составит 285 Вт.

Что касается уровня быстродействия, то, полагаясь на результаты достижений предстоящих моделей в тестовом пакете Time Spy Extreme, опубликованных инсайдером, топовая модель серии TITAN превосходит свою предшественницу на впечатляющие 112.4 %, в то время как игровые GeForce RTX 4090, RTX 4080 и RTX 4070 обходят соответствующих представительниц линейки GeForce RTX 30 на 86.3, 68.5 и 61.8 % соответственно.

Стоит отметить, что приведенные характеристики не являются официальными, поэтому в будущем, как это уже бывало, могут претерпеть изменений.

Источник

Игровые видеокарты Nvidia GeForce RTX: первые мысли и впечатления

Оглавление

Вводная нашего эксперимента

Для начала — что это такое вы читаете и о чем дальше пойдет речь. Нет, это не обзор видеокарт, и нет, это даже не обзор новой графической архитектуры. Это экспериментальный формат: просто рандомные мысли по теме, которые посещали автора во время многочисленных горячих обсуждений в форумах и соцсетях после анонса новой линейки видеокарт Nvidia. Полноценный обзор обязательно появится на нашем сайте, но он будет готов ровно тогда, когда будет готов. Несколько дней еще придется подождать.

Ну а теперь давайте рассусоливать рассуждать. Напомню, что компания Nvidia анонсировала игровые решения линейки GeForce RTX еще в августе, на игровой выставке Gamescom в Кельне. Созданы они на основе новой архитектуры Turing, представленной еще чуть ранее — на SIGGraph 2018. А сегодня настал тот день, когда можно публично раскрывать все известные нам подробности о новых архитектуре и видеокартах калифорнийской компании.

Если кто-то еще не в курсе, то новых моделей GeForce RTX пока что объявлено три штуки: RTX 2070, RTX 2080 и RTX 2080 Ti, они основаны на трех графических процессорах: TU106, TU104 и TU102 соответственно. Да, Nvidia поменяла систему наименований как самих видеокарт (RTX — от ray tracing, т. е. трассировка лучей), так и видеочипов (TU — Turing), но мы сегодня не будем шутить на тему Ту-104, ведь у нас предостаточно других поводов для обсуждения.

Что такое rtx

Любопытно, что младшая модель GeForce RTX 2070 основана на TU106, а не TU104, как многие предполагали — к слову, это единственная видеокарта новой линейки, имеющая полноценный чип без урезания по количеству исполнительных блоков. Она и выйдет позже двух других видеокарт, так как TU106 подготовили к производству несколько позже старших чипов. Мы не будем сегодня подробно останавливаться на количественных характеристиках, оставив это полноценному обзору новинок, но рассмотрим разницу между чипами по сложности.

Применяемая модификация TU102 по количеству блоков ровно вдвое больше, чем TU106, средний чип TU104 содержит четыре блока TPC на кластер GPC, а TU102 и TU106 имеют по 6 блоков TPC на каждый GPC. Но сейчас для нас важнее сложность и размеры графических процессоров (почему — поймете далее, когда речь пойдет о ценах). TU106, лежащий в основе GeForce RTX 2070, имеет 10,6 млрд транзисторов и площадь 445 мм², что более чем на сотню миллиметров больше, чем у GP104 на архитектуре Pascal (7,2 млрд и 314 мм²). То же самое касается и других решений: модель GeForce RTX 2080 Ti основана на слегка урезанной версии TU102, имеющей площадь 754 мм² и 18,6 млрд транзисторов (против 610 мм² и 15,3 млрд у GP100), GeForce RTX 2080 базируется на урезанном TU104 с площадью 545 мм² и 13,6 млрд транзисторов (сравните с 471 мм² и 12 млрд у GP102).

То есть по сложности чипов Nvidia как бы сдвинула линейку на шаг: TU102 скорее соответствует гипотетически предполагаемому чипу с индексом 100, TU104 больше похож на «TU102», а TU106 — на «TU104». Это если смотреть по семейству Pascal, которое, к слову, производилось по техпроцессу 16 нм на TSMC, а все новые графические процессоры — на. гм. более новом 12 нм у тех же тайваньцев.

Но по размерам чипов это изменение заметить трудно, потому что техпроцессы очень близки по характеристикам, несмотря на свои вроде бы разные наименования — информация о них на сайте TSMC даже размещена на одной странице. Так что большого преимущества по себестоимости производства быть не должно, но площадь всех GPU-то заметно возросла. Запомните эту информацию и проистекающий из нее логический вывод — они еще пригодятся нам в конце материала.

Аппаратная трассировка лучей — благо или блажь?

Так откуда же взялись все эти «лишние» транзисторы в новых GPU, ведь количество основных исполнительных блоков (CUDA-ядра) выросло не так уж сильно? Как стало известно еще из анонса архитектуры Turing и профессиональных решений линейки Quadro RTX на SIGGraph, новые графические процессоры Nvidia кроме ранее известных блоков впервые включают также и специализированные RT-ядра, предназначенные для аппаратного ускорения трассировки лучей. Переоценить их появление в видеокартах невозможно, это большой шаг вперед для качественной графики в реальном времени. Мы написали для вас подробнейшую статью о трассировке лучей и ее преимуществах, которые проявятся уже в ближайшие годы. Если вас интересует эта тема, то настоятельно советуем ознакомиться.

Если совсем вкратце, то трассировка лучей обеспечивает значительно более высокое качество картинки по сравнению с растеризацией, даже при том, что ее применение пока ограничено возможностями аппаратного обеспечения. Но анонс технологии Nvidia RTX и соответствующих GPU дал разработчикам принципиальную возможность — начать исследования алгоритмов, использующих трассировку лучей, что стало самым значительным изменением в графике реального времени за долгие годы. Это перевернет все представление о графике, но не сразу, а постепенно. Первые примеры использования трассировки будут гибридными (сочетание трассировки лучей и растеризации) и ограниченными по количеству и качеству эффектов, но это единственно правильный шаг к полной трассировке лучей, которая станет доступной уже через несколько лет.

Благодаря первенцам семейства GeForce RTX, уже сейчас можно использовать трассировку для части эффектов — качественных мягких теней (будет реализовано в свежей игре Shadow of the Tomb Raider), глобального освещения (ожидается в Metro Exodus и Enlisted), реалистичных отражений (будет в Battlefield V), а также сразу нескольких эффектов одновременно (было показано на примерах Assetto Corsa Competizione, Atomic Heart и Control). При этом для GPU, не имеющих аппаратных RT-ядер, можно использовать привычные методы растеризации. А RT-ядра в составе новых чипов используются исключительно для расчета пересечения лучей с треугольниками и ограничивающими объемами (BVH), важнейшими для ускорения процесса трассировки (подробности читайте в полном обзоре), а вычисления по закраске пикселей все так же делаются в шейдерах, исполняемых на привычных мультипроцессорах.

Что касается производительности новых GPU при трассировке, то публике назвали цифру в 10 гигалучей в секунду. Много это или мало? Оценивать производительность RT-ядер в количестве обсчитываемых лучей в секунду не совсем корректно, так как скорость сильно зависит от сложности сцены и когерентности лучей. И она может отличаться в десяток раз и более. В частности, слабо когерентные лучи при обсчете отражений и преломлений требуют большего времени для расчета по сравнению с когерентными основными лучами. Так что показатели эти чисто теоретические, и сравнивать разные решения нужно в реальных сценах при одинаковых условиях. Но уже известно, что новые GPU до 10 раз быстрее (это в теории, а в реальностискорее до 4-6 раз) в задачах трассировки по сравнению с предыдущими решениями аналогичного уровня.

О потенциальных возможностях трассировки лучей не стоит судить по ранним демонстрациям, в которых намеренно выпускают на первый план именно эти эффекты. Картинка с трассировкой лучей всегда реалистичнее в целом, но на данном этапе массы еще готовы мириться с артефактами при расчете отражений и глобального затенения в экранном пространстве, а также другими хаками растеризации. Но с трассировкой можно получить потрясающие результаты: посмотрите на скриншот из новой демки компании Nvidia с трассировкой лучей, применяемой для полного просчета освещения, в том числе глобального, мягких теней (правда, лишь от одного источника света — солнца, зато его можно перемещать) и реалистичных отражений, не бросающихся в глаза, как мы это видели в других демонстрациях.

Что такое rtx

Сцена в демке (нам обещали позднее выпустить ее публично, чтобы все могли посмотреть вживую) наполнена объектами сложной формы из разных материалов: барная стойка, стулья, светильники, бутылки, натертый до блеска паркетный пол и др. Для сглаживания используется продвинутый алгоритм с применением искусственного интеллекта — DLSS, и сцена при всем этом отрисовывается почти в реальном времени всего лишь на паре видеокарт GeForce RTX 2080 Ti! Да, пока что в играх такого не увидишь, но все еще впереди. Немного больше информации об этой демке — под спойлером в последней главе материала.

Недоверчивый игрок сразу же прицепится к паре топовых GPU: «Ага, я всегда знал, что трассировка лучей будет сильно просаживать производительность!» Нет, далеко не всегда для трассировки нужны две топовые видеокарты стоимостью по тыще долларов каждая, в игре Enlisted (Gaijin Entertainment) применяется столь хитрый метод расчета глобального освещения в реальном времени с применением аппаратной трассировки Nvidia, что включение GI не приносит потерь производительности вообще!

Если вы обратите внимание на счетчик FPS в углу экрана, то легко заметите, что включение GI не снизило частоту кадров вовсе, хотя значительно увеличило реалистичность освещения (картинка без GI плоская и нереалистичная). Это стало возможно на GeForce RTX благодаря хитрому алгоритму Gaijin и специализированным RT-ядрам, выполняющим всю работу по ускорению специальных структур (BVH — Bounding Volume Hierarchy) и поиску пересечений лучей с треугольниками. Так как бо́льшая часть работы выполняется именно на выделенных RT-ядрах, а не CUDA-ядрах, то и снижения производительности в данном конкретном случае это практически не приносит.

Пессимисты скажут, что ровно так же можно предварительно рассчитать GI и «запечь» информацию об освещении в специальные лайтмапы, но для больших локаций с динамическим изменением погодных условий и времени суток сделать это просто физически невозможно. Так что аппаратно ускоренная трассировка лучей мало того что приносит повышение качества, она облегчит труд дизайнеров, да еще при всем этом может быть «дешевой» или даже «бесплатной» в некоторых случаях. Конечно, так будет не всегда, качественные тени и преломления сложнее рассчитать, но специализированные RT-ядра сильно помогают по сравнению с трассировкой лучей чисто при помощи вычислительных шейдеров.

Вообще, ознакомившись со множеством мнений простых игроков после анонса технологии RTX и просмотра демонстраций в играх, можно сделать вывод о том, что далеко не все поняли, что принципиально нового дает трассировка лучей. Многие говорят что-то типа: «А что, тени в играх сейчас и так реалистичные и отражения есть — те, которые показала Nvidia с использованием трассировки, ничем не лучше». В том-то и дело, что лучше! Хотя растеризация при помощи многочисленных хитрых хаков и трюков к нашим дням действительно добилась отличных результатов, когда во многих случаях картинка выглядит достаточно реалистично для большинства людей, в некоторых случаях отрисовать корректные отражения и тени при растеризации невозможно принципиально.

Самый явный пример — отражения объектов, которые находятся вне сцены — типичными методами отрисовки отражений без трассировки лучей полностью реалистично отрисовать их невозможно. Или не получится сделать реалистичные мягкие тени и корректно рассчитать освещение от больших по размеру источников света (площадные источники света — area lights). Для этого пользуются разными хитростями, вроде расставления вручную большого количества точечных источников света и фейкового размытия границ теней, но это не универсальный подход, он работает только в определенных условиях и требует дополнительной работы и внимания от разработчиков.

Для качественного же скачка в возможностях и улучшении качества картинки переход к гибридному рендерингу и трассировке лучей просто необходим. Точно такой же путь в свое время проходила киноиндустрия, в которой в конце прошлого века применялся гибридный рендеринг с одновременной растеризацией и трассировкой. А еще через 10 лет все в кино постепенно перешли к полной трассировке лучей. То же самое будет и в играх (только не через 10 лет, а раньше), этот шаг с относительно медленной трассировкой и гибридным рендерингом невозможно пропустить, так как он дает возможность подготовиться к трассировке всего и вся.

Тем более, что во многих хаках растеризации уже и так используются схожие с трассировкой методы (к примеру, можно взять самые продвинутые методы имитации глобального затенения и освещения типа VXAO), поэтому более активное использование трассировки в играх — лишь дело времени. Тем более, что она позволяет упростить работу художников по подготовке контента, избавляя от необходимости расставления фейковых источников света для имитации глобального освещения и от некорректных отражений, которые с трассировкой будут выглядеть естественно.

В киноиндустрии переход к полной трассировке лучей привел к увеличению времени работы художников непосредственно над контентом (моделированием, текстурированием, анимацией), а не над тем, как сделать неидеальные методы растеризации реалистичными. К примеру, сейчас очень много времени уходит на расставление источников света, предварительный расчет освещения и «запекание» его в статические карты освещения. При полной трассировке все это будет не нужно, и даже просто подготовка карт освещения на GPU вместо CPU даст ускорение этого процесса. То есть переход на трассировку дает не просто улучшение картинки, а скачок и в качестве самого контента.

Кто-то скажет, что в переходный гибридный период в играх все будет блестящее и отражающее, и это нереалистично. А как будто когда-то было иначе! Когда только началось внедрение отражений в экранном пространстве (SSR — screen space reflections) в играх, то каждая первая автогонка (вспомните серию Need for Speed, начиная с Underground) считала своим долгом показывать чуть ли не исключительно мокрые ночные дороги. Вероятно, отражающих объектов с внедрением трассировки тоже станет больше, но в основном по той причине, что ранее рендеринг реалистичных отражений был или сложен, или вовсе невозможен в определенных случаях. Плюс, вполне естественно, что в первых демонстрациях технологии нам показывают в основном те поверхности, на которых эффект хорошо виден, но в играх будущего вовсе не обязательно будет так.

На первых стадиях внедрения трассировки есть и явная проблема недостатка ее производительности, но аппетиты разработчиков постоянно растут, как только они распробуют новую технологию. К примеру, создатели игры Metro Exodus изначально планировали добавить в игру лишь расчет Ambient Occlusion, добавляющий теней в основном в углах между поверхностями, но затем они решили внедрить уже полноценный расчет глобального освещения GI. Результат получился довольно неплохим уже сейчас:

Поначалу визуальная разница между максимально проработанными алгоритмами растеризации и начинающей свой путь аппаратной трассировкой лучей нередко действительно будет не слишком большой, и в этом есть определенная опасность для Nvidia. Пользователи могут сказать, что они не готовы заплатить за такую разницу, и с потребительской точки зрения понять их можно.

С другой стороны, переходного периода не избежать, и кто, как не лидер индустрии, способен потянуть его, заодно уговорив и своих партнеров? Тем более правильно делать это при нынешнем положении дел, когда единственный конкурент решил взять большую (нет, не так: ОГРОМНУЮ) паузу в разработке своих решений.

Зачем вообще игровой видеокарте какой-то интеллект?

С трассировкой лучей более-менее разобрались, и она, безусловно, полезна для графики, пусть и дается сначала достаточно большой ценой. Но для чего в игровых графических процессорах оставили тензорные ядра, которые впервые появились в архитектуре Volta и в дорогущей видеокарте для энтузиастов — Titan V? Эти тензорные ядра ускоряют задачи с применением искусственного интеллекта (так называемое глубокое обучение), и зачем все это игрокам, по мнению некоторых вынужденным платить за то, что они не используют?

Главное, для чего нужны тензорные ядра в GeForce RTXдля помощи все той же трассировке лучей. Поясню: в начальной стадии применения аппаратной трассировки производительности хватает только для сравнительно малого количества рассчитываемых лучей на каждый пиксель, а малое количество рассчитываемых сэмплов дает весьма «шумную» картинку, которую приходится дополнительно обрабатывать (подробности читайте в нашей статье о трассировке). В первых проектах будет от 1 до 4 лучей на пиксель, в зависимости от задачи и алгоритма. К примеру, в Metro Exodus для расчета глобального освещения используется по три луча на пиксель с расчетом одного отражения, и без дополнительной фильтрации результат к применению не слишком пригоден.

Для решения этой проблемы можно использовать различные фильтры шумопонижения, улучшающие результат без необходимости увеличения количества выборок (лучей). Шумодавы очень эффективно устраняют неидеальность результата трассировки с малым количеством выборок, и результат их работы зачастую не отличить от изображения, полученного с помощью в разы большего количества выборок.

Что такое rtx

На данный момент в Nvidia используют различные шумодавы, в том числе и основанные на работе нейросетей. Которые как раз могут быть ускорены на тензорных ядрах. В будущем такие методы с применением ИИ будут улучшаться и способны полностью заменить все остальные. Главное, что нужно понять: на текущем этапе применениям трассировки лучей без фильтров шумоподавления не обойтись, во многом именно поэтому тензорные ядра обязательно нужны в помощь RT-ядрам.

Но далеко не только для этой задачи можно использовать искусственный интеллект (ИИ) и тензорные ядра. В частности, Nvidia уже показывала новый метод как бы сглаживания — DLSS (Deep Learning Super Sampling). «Как бы» — потому, что это не совсем привычное сглаживание, а технология, использующая искусственный интеллект для улучшения качества отрисовки аналогично сглаживанию.

Для успешной работы DLSS нейросеть «тренируют» в офлайне на тысячах изображений, полученных с применением суперсэмплинга с большим количеством выборок (именно поэтому технологию назвали Super Sampling, хотя это не суперсэмплинг). Затем уже в реальном времени на тензорных ядрах видеокарты исполняются вычисления (инференс), которые «дорисовывают» изображение на основе ранее обученной нейросети.

Что такое rtx

То есть, нейросеть на примере тысяч хорошо сглаженных изображений учат «додумывать» пиксели, делая из грубой картинки сглаженную, и она успешно делает это затем уже для любого изображения из игры. И такой метод работает значительно быстрее любого традиционного метода с аналогичным качеством. В результате игрок получает четкие изображения вдвое быстрее, чем GPU предыдущего поколения с использованием традиционных методов сглаживания типа TAA. Да еще и с лучшим качеством, если присмотреться к приведенным выше примерам.

К сожалению, у DLSS есть один важный недостаток: для внедрения этой технологии нужна поддержка со стороны разработчиков, так как для работы алгоритма требуются данные буфера с векторами движения. Но таких проектов уже довольно много — 25 штук на сегодняшний день, включая такие известные игры, как Final Fantasy XV, Hitman 2, PlayerUnknown’s Battlegrounds, Shadow of the Tomb Raider, Hellblade: Senua’s Sacrifice и другие:

Что такое rtx

Но DLSS — еще далеко не все, для чего можно применять нейросети. Все зависит от разработчика, он может использовать мощь тензорных ядер для более «умного» игрового ИИ, для улучшенной анимации (такие методы уже есть), да много чего еще можно придумать. Даже, казалось бы, совершенно дикого — к примеру, можно в реальном времени улучшать текстуры и материалы в старых играх! Ну а почему бы и нет? Натренировать нейросеть на основе парных изображений старых и улучшенных текстур, и пусть она дальше сама работает. Или вообще «перенос стиля» — как вам психологический триллер в визуальном стиле Сальвадора Дали? И это я еще не говорю о банальном увеличении разрешения (upscale), с которым ИИ уже справляется идеально.

Главное, что возможности применения нейросетей фактически безграничны, мы пока даже не догадываемся о том, что еще можно сделать с их помощью. Раньше производительности было слишком мало для того, чтобы применять нейросети массово и активно, а теперь, с появлением тензорных ядер в простых игровых видеокартах (пусть пока только дорогих — мы еще вернемся к этому вопросу) и возможностью их использования при помощи специального API и фреймворка Nvidia NGX (Neural Graphics Framework), это становится всего лишь делом времени.

ОК, новые фичи хороши, а что со старыми играми?

Одним из важнейших вопросов, тревожащих игроков по всему миру, стал вопрос производительности в уже существующих проектах. Да, новые фичи дадут скорость и качество, но почему Nvidia на презентации в Кельне ничего не сказала о скорости в нынешних играх по сравнению с линейкой Pascal? Наверняка там не все так уж хорошо, вот поэтому и скрывают! Действительно, отсутствие каких-либо данных о скорости рендеринга в уже вышедших играх со стороны компании было явной оплошностью, которую они затем поспешили исправить, выпустив слайды о приросте скорости до 50% в известных играх по сравнению с аналогичными моделями из линейки GeForce GTX.

Общественность вроде бы немного успокоилась, но остался нераскрытым главный вопрос: как этого удалось добиться? Ведь количество CUDA-ядер и прочих привычных блоков (TMU, ROP и т. д.) не слишком возросло по сравнению с Pascal, да и тактовая частота выросла не очень сильно. Действительно, чисто по этим характеристикам приросту в 50% взяться неоткуда. Но оказывается, что Nvidia вовсе не сидела, сложа руки, и внесла некоторые изменения и в уже известные нам блоки.

К примеру, в архитектуре Turing стало возможным одновременное выполнение целочисленных (INT32) команд вместе с операциями с плавающей запятой (FP32). Некоторые пишут, что в CUDA-ядрах «появились» блоки INT32, но это не совсем верно: они там есть уже давно, просто раньше одновременное исполнение целочисленных и FP-инструкций было невозможно.

Теперь же в ядра были внесены изменения аналогично Volta, которые позволяют исполнять INT32- и FP32-операции параллельно и независимо. По данным Nvidia, типичные игровые шейдеры, помимо операций с плавающей запятой, в среднем используют при исполнении и около 36% дополнительных целочисленных операций (адресация, специальные функции и т. п.), так что уже одно это нововведение способно серьезно повысить производительность во всех играх, а не только с трассировкой лучей и DLSS.

Что такое rtx

Можно удивиться разве что соотношению количества блоков INT32 и FP32, но задачи процессоров Nvidia не ограничиваются игровыми шейдерами, а в других применениях доля целочисленных операций вполне может быть и выше. Кроме этого, INT32-блоки наверняка значительно проще FP32, так что «лишнее» их количество вряд ли сильно повлияло на общую сложность GPU.

Это не единственное улучшение основных вычислительных ядер. В новых SM также серьезно изменили архитектуру кэширования, объединив кэш первого уровня и текстурный кэш (у Pascal они были раздельными). В итоге вдвое выросла пропускная способность L1-кэша, снизились задержки доступа к нему вместе с увеличением емкости кэша, а каждый кластер TPC в чипах архитектуры Turing теперь имеет вдвое больше кэш-памяти второго уровня. Оба этих значительных архитектурных изменения привели к примерно 50% улучшения производительности шейдерных процессоров в играх (таких как Sniper Elite 4, Deus Ex, Rise of the Tomb Raider и других).

Что такое rtx

Кроме этого, также были улучшены технологии сжатия информации без потерь, экономящие видеопамять и ее пропускную способность. Архитектура Turing включает новые техники сжатия, по данным Nvidia до 50% более эффективные по сравнению с алгоритмами в семействе чипов Pascal. Вместе с применением нового типа памяти GDDR6 это дает приличный прирост эффективной ПСП, так что новые решения точно не будут ограничены возможностями памяти.

Добавим немного информации и о тех изменениях, которые могут сказаться как в старых, так и в новых играх. К примеру, по некоторым фичам (feature level) из Direct3D 12 чипы Pascal отставали от решений AMD и даже интегрированных GPU Intel! В частности, это касается таких возможностей, как Constant Buffer Views, Unordered Access Views и Resource Heap (если вы не знаете, что это такое — просто поверьте, что эти возможности немного облегчают работу программистам, упрощая доступ к различным ресурсам). Так вот, по возможностям Direct3D feature level новые GPU уже не отстают от конкурентов.

Кроме этого, было улучшено еще одно, не так давно бывшее больным место чипов Nvidia — асинхронное исполнение шейдеров, высокой эффективностью которого могут похвалиться решения AMD. Оно уже неплохо работало и в последних чипах Pascal, но в Turing этот самый async shading был улучшен дополнительно, по словам Джоны Албена, главного по разработке графических чипов в компании. К сожалению, никаких подробностей он не выдал, хотя рассказал также и о том, что новые CUDA-ядра способны исполнять операции с плавающей запятой сниженной точности (FP16) с двойным темпом, в дополнение к озвученной ранее способности Turing исполнять такие операции и на тензорных ядрах (ура, еще одно применение «бесполезным» тензорам!).

И очень кратко расскажем о том, какие еще изменения в Turing нацелены на будущее. Nvidia предлагает метод, позволяющий значительно снизить зависимость от мощности CPU и одновременно с этим во много раз увеличить количество объектов в сцене. Бич CPU overhead давно уже преследует ПК-игры, и хотя частично он решался в DirectX 11 (в меньшей степени) и в DirectX 12 (в большей), радикально ничего особо не улучшилось — каждый объект все так же требует нескольких вызовов функций отрисовки (draw calls), каждый из которых требует обработки на CPU, что не дает GPU показать все свои возможности.

Главный конкурент Nvidia еще при анонсе семейства Vega предложил возможное решение проблем — primitive shaders, но дело не пошло дальше заявлений. В Turing предлагается аналогичное решение под названием Mesh Shading — это как бы новая шейдерная модель, которая ответственна сразу за всю работу над геометрией, вершинами, тесселяцией и т. д. При Mesh Shading становятся ненужными вершинные шейдеры и тесселяция, весь привычный вершинный конвейер заменяется аналогом вычислительных шейдеров для геометрии, которыми можно делать все, что захочется: трансформировать вершины, добавлять их или убирать, используя вершинные буферы как угодно, или создавать геометрию прямо на GPU.

Увы, столь радикальный метод требует поддержки от API — вероятно, именно поэтому у конкурента дело дальше заявлений не пошло. Предполагаем, что в Microsoft уже работают над добавлением этой возможности, раз она теперь поддерживается двумя основными производителями GPU (Intel, ау!), и в какой-то из будущих версий DirectX она появится. Пока что ее вроде бы можно использовать при помощи специализированного NVAPI, который в т. ч. и создан для внедрения возможностей новых GPU, еще не поддерживаемых в графических API. Но так как это не универсальный метод, то широкой поддержки Mesh Shading до обновления популярных графических API можно не ждать, увы.

Еще одна интереснейшая возможность Turing — Variable Rate Shading (VRS), шейдинг с переменным количеством сэмплов. Вкратце, эта возможность дает разработчику контроль над тем, сколько выборок использовать в случае каждого из тайлов буфера размером 4×4 пикселя. То есть для каждого тайла изображения из 16 пикселей можно выбрать свое качество на этапе закраски пикселя. Важно, что это не касается геометрии, так как буфер глубины остается в полном разрешении.

Зачем все это нужно? В кадре всегда есть участки, на которых легко можно понизить количество сэмплов закраски практически без потерь в качестве — к примеру, это части изображения, впоследствии замыленные постэффектами типа Motion Blur или Depth of Field. И разработчик может задавать достаточное, по его мнению, качество шейдинга для разных участков кадра, что может увеличить производительность. Сейчас для подобных задач иногда применяют так называемый checkerboard rendering, но он не универсален и ухудшает качество закраски для всего кадра, а с VRS можно делать все это максимально тонко.

Что такое rtx

Можно упрощать шейдинг тайлов в несколько раз, чуть ли не с одной выборкой для блока в 4×4 пикселя (такая возможность не показана на картинке, но она есть, насколько нам известно), а буфер глубины остается в полном разрешении, и даже при таком низком качестве шейдинга границы полигонов будут сохраняться в полном качестве, а не один на 16. К примеру, на картинке выше самые смазанные участки дороги рендерятся с экономией ресурсов вчетверо, остальныевдвое, и лишь самые важные отрисовываются с максимальным качеством закраски.

А кроме оптимизации производительности, эта технология дает и некоторые неочевидные возможности, вроде почти бесплатного сглаживания для геометрии. Для этого нужно отрисовывать кадр в буфер вчетверо большего разрешения (делая как бы суперсэмплинг 2×2), но включить shading rate на 2×2 по всей сцене, что убирает стоимость вчетверо большей работы по закраске, но оставляет сглаживание геометрии в полном разрешении. Таким образом получится, что шейдеры исполняются лишь один раз на пиксель, но сглаживание будет с качеством 4х MSAA практически «бесплатно», так как основная работа GPU заключается именно в шейдинге. И это лишь один из вариантов использования VRS, программисты наверняка придумают и другие.

Наконец-то мы подошли, пожалуй, к самому спорному моменту для GeForce RTX. Да, новые возможности Turing и GeForce RTX в частности выглядят весьма впечатляюще, это невозможно не признать. В новых GPU были улучшены традиционные блоки, а также появились совершенно новые, с новыми же возможностями. Казалось бы — беги скорее в магазин делать предзаказ! Но нет, очень многих потенциальных покупателей сильно смутили цены новых решений Nvidia, которые оказались выше предполагавшихся.

И это так, цены действительно совсем немаленькие, особенно для нашей страны. Но не стоит забывать и об особенностях нашего. национального ценообразования, обвиняя Nvidia. Все же у нас любят сравнивать цены без налогов в США (а они в штатах могут достигать 10%-15%) и российские цены с дополнительно заложенным НДС, логистическими расходами и немалыми рисками, связанными с нестабильностью национальной валюты, что тоже закладывается в цену. Все перечисленное сильно сблизит американскую цену без налогов с нашей розничной. Тем более не нужно сравнивать цены референсных образцов и заявленные цены на карты партнеров — подождем практики. Быть может, разница между ценами у нас и «там» на деле будет не такой большой. Ну а если она будет большой даже с учетом специфики рынка, то с радостью присоединимся к вашей ругани.

А кто вообще сейчас может себе позволить отдать 96 тысяч за топовую GeForce RTX 2080 Ti или даже 64 и 48 тысяч за менее мощные варианты? Это ведь всего лишь видеокарта со стоимостью в целый ПК! Но подождите, окружающая нас объективная реальность такова, что представленный на днях топовый смартфон очень популярной марки (без особых улучшений по сравнению с предыдущим поколением, к слову) и то дороже. Почему тогда видеокарта не может столько стоить?

Новинки Nvidia. нет, не «дорогие», а «дороже предыдущих решений». Разница есть, и нужно понимать, что это не высокая цена — она просто выше цен на предыдущие поколения GPU. Чему есть в том числе и вполне объективные причины:

Соответственно, при капитализме в Nvidia имеют право назначать любые цены, и конкретно с их точки зрения вполне логично, что цены оказались выше, чем на предыдущие решения. Это ведь рынок, тут нет места благотворительности. И все же, в конечном итоге все решит покупатель (баланс спроса и предложения — помните ведь?). Покупать новые видеокарты или нет — это ваше личное дело, именно этим вы и можете влиять на рынок.

Кому мы смело можем рекомендовать покупать новинки серии GeForce RTX:

Кому, возможно, стоит подождать (следующего года/следующего поколения/мощных конкурентов/второго пришествия):

Естественно, в Nvidia прекрасно понимают, что им никуда не деться от критики в связи с «ненужными» тензорными и RT-ядрами и якобы завышенной ценой на новые решения: «Лучше сделайте быстро и в десять раз больше текстур по-старому и не лезьте в новые дорогие технологии!» Критикующие новые технологии подобным образом в пользу более простых и дешевых чем-то похожи на тех, кто выступает против освоения космоса до тех пор, пока есть хоть один голодающий на нашей планете (без шуток — это крайне важно, но не отменяет исследований более высокого уровня).

Никто же никого не заставляет платить деньги за то, что не нужно конкретно им, в конце концов. На свободном рынке работают соответствующие рыночные механизмы, и если покупатели посчитают, что цена на продукт завышена, то спрос будет низкий, доход и прибыль компании Nvidia упадут, и они со временем скорректируют цену, чтобы получать меньше прибыли с каждой видеокарты, но увеличить оборот. Но точно не на старте продаж при фактическом отсутствии конкуренции, когда первые поставки новых GPU были распроданы еще на стадии предзаказов.

Кто-то наверняка захотел бы появления таких же сложных и крупных GPU вообще без тензорных и RT-ядер, так как они им «не нужны». Это дело производителя, и если на рынке будет спрос на подобные решения, то, может быть, какая-то другая компания выпустит их. А может быть, и нет, это уже они сами решат. Возможно, они тоже внедрят аппаратное ускорение «никому не нужных» вещей, кто знает.

А может, Nvidia просто наживается на бедных игроках? Сейчас приготовьтесь, будут шокирующие новости: любая коммерческая компания делает это! Вообще любая, просто их аппетиты могут несколько отличаться, а цель всегда одна. Но у покупателя всегда есть выбор: платить деньги или нет. Мы не призываем слепо делать ни то, ни другое. Если вы энтузиаст, вас устраивает производительность новой линейки и вы хотите помочь в продвижении трассировки лучей и искусственного интеллекта в игры — покупайте. Считаете, что цена завышена или трассировка вам не нужна (пока или вообще) — не покупайте. Рынок сам все отрегулирует рано или поздно.

Эпичная финалочка

После всех обсуждений о возможностях и ценах GeForce RTX давайте вернемся к тому впечатляющему скриншоту из новой демки Nvidia с трассировкой лучей, который я привел в статье. Посмотрите еще раз, как точно просчитываются все лучи, исходящие от солнца, прошедшие через окна, отражающиеся от поверхностей и преломляющиеся в полупрозрачных разноцветных бутылках.

Что такое rtx

Все тени на картинке имеют идеально мягкие края и накладываются друг на друга строго по законам оптики. И уж поверьте мне, если приблизиться к ним, то все остается весьма реалистичным, а немного лишнего шума лишь добавляет фотореализма.

А теперь — шок! Я вас нагло обманул, это фотография реального интерьера отеля Radisson Blu в Кельне. Но если вы мне поверили, то это значит лишь одно: современная графика реального времени уже и так настолько хороша, что статичные картинки с фотореализмом она вполне себе осиливает, и только еще лучше сделает это с применением трассировки лучей или хотя бы гибридного рендеринга.

Подводя окончательный итог, нужно признать, что Nvidia идет на приличный риск для себя, выпуская игровые решения с поддержкой сразу двух совершенно новых (для пользовательского рынка) типов специализированных вычислительных ядер. Но они делают это просто потому, что как раз они и могут! Специализированное аппаратное обеспечение для трассировки лучей появлялось и в прошлом, но не было успешным из-за большой разницы в растеризации и трассировке. Предыдущие решения хорошо делают или трассировку, или растеризацию, и только решения Turing способны на то и на другое с достаточно высокой эффективностью. Именно возможность качественного гибридного рендеринга и делает линейку GeForce RTX столь интересной, отличая ее от предыдущих попыток продвижения трассировки лучей.

С нынешним, практически доминирующим положением на рынке высокопроизводительных GPU компания решила в определенной степени шагнуть в неизвестность. Основной вопрос заключается в том, смогут ли они получить достаточную поддержку от индустриис реальным использованием новых фич и новых типов специализированных ядер. На данный момент Nvidia уже объявила о поддержке новых технологий в нескольких десятках проектов (трассировка и DLSS), но им необходимо не снижать темп и накал в продвижении всех этих возможностей. Вероятно, уже в следующем году на игровых конференциях и выставках типа E3 и GDC мы увидим куда большее количество игр с применением трассировки лучей и возможностей нейросетей, но до тех пор Nvidia нужно продать некое количество (критическую массу) GeForce RTX, чтобы получить поддержку от разработчиков, выраженную в их искреннем желании самостоятельно внедрять новые фичи.

Мы же предполагаем, что выход GeForce RTX (да и Quadro RTX) серьезно повлияет на всю индустрию в среднесрочной и долгосрочной перспективе как минимум и поспособствует продвижению аппаратно ускоренной на GPU трассировки лучей в качестве стандарта для рендеринга изображений как в реальном времени, так и в офлайне. Именно поэтому вся линейка GeForce RTX крута в абсолюте — даже вне зависимости от розничных цен и производительности в старых играх (так и быть, я открою вам маленький секрет: она и там весьма неплоха).

P. S. Автор заранее готов к обвинениям в продажности и т. п., так как за долгие годы работы давно привык к этому. Вы можете верить или нет, но весь текст был написан просто от лица одного из энтузиастов 3D-графики, который знает о преимуществах трассировки лучей в офлайне уже не один десяток лет, которого банально впечатляют появление трассировки реального времени и прочие глобальные изменения в индустрии, связанные с появлением GeForce RTX.

Источник

GeForce RTX больше не нужен? Тесты трассировки лучей на ускорителях GeForce GTX 10 и 16

После того как NVIDIA продемонстрировала трассировку лучей в реальном времени на видеокартах серии GeForce RTX, трудно сомневаться в том, что именно за этой технологией (в разумном сочетании с алгоритмом растеризации) будущее компьютерных игр. Однако графические процессоры на основе архитектуры Turing со специализированными RT-ядрами до недавнего времени считались единственной категорией дискретных GPU, которая располагает подходящей для этого вычислительной мощностью.

Как показали тесты первых игр, освоивших Ray Tracing (Battlefield V, Metro Exodus и Shadow of the Tomb Raider), даже ускорители GeForce RTX (особенно младший из них — RTX 2060) испытывают существенное падение частоты смены кадров в задачах гибридного рендеринга. Несмотря на первые успехи, трассировку лучей в реальном времени еще нельзя считать зрелой технологией. Лишь тогда, когда не только самые передовые и дорогостоящие устройства, но и графические карты среднего ценового уровня достигнут прежних стандартов быстродействия в играх новой волны, можно будет объявить, что смена парадигм, запущенная компанией Дженсена Хуанга, наконец, совершилась.

Что такое rtx

Трассировка лучей на «Паскалях» — за и против

Но уже сейчас, пока еще не сказано ни слова о будущем преемнике архитектуры Turing, NVIDIA решила подстегнуть прогресс. На мероприятии GPU Technology Conference в прошлом месяце зеленая команда сообщила, что ускорители на чипах Pascal, а также младшие представители семейства Turing (серия GeForce GTX 16) приобретут функцию трассировки лучей в реальном времени наравне с продуктами под маркой RTX. Сегодня обещанный драйвер уже можно скачать на официальном сайте NVIDIA, а список устройств включает модели семейства GeForce 10, начиная с GeForce GTX 1060 (версия 6 Гбайт), профессиональный ускоритель TITAN V на чипе Volta, и, разумеется, новоприбывшие модели средней ценовой категории на чипе TU116 — GeForce GTX 1660 и GTX 1660 Ti. Обновление коснулось и ноутбуков с соответствующими GPU.

С технической точки зрения здесь нет ничего сверхъестественного. Графические процессоры с унифицированными шейдерными блоками могли выполнять Ray Tracing задолго до появления архитектуры Turing, хотя в то время не располагали достаточным быстродействием для того, чтобы эта возможность была востребована в играх. Кроме того, отсутствовал единый стандарт программных методов, помимо закрытых API наподобие фирменного NVIDIA OptiX. Теперь, когда существует расширение DXR для Direct3D 12 и аналогичные библиотеки в интерфейсе программирования Vulkan, игровой движок может обращаться к ним вне зависимости от того, оснащен ли графический процессор специализированной логикой — лишь бы драйвер давал такую возможность. У чипов Turing для этой цели есть отдельные RT-ядра, а в GPU архитектуры Pascal и процессоре TU116 трассировка лучей реализована в формате вычислений общего назначения на массиве шейдерных ALU.

Что такое rtx

Однако все, что нам известно об архитектуре Turing со слов самой NVIDIA, говорит о том, что Pascal не годится для приложений с поддержкой DXR. В прошлогодней презентации, посвященной флагманским моделям семейства Turing — GeForce RTX 2080 и RTX 2080 Ti — инженеры приводили следующие выкладки. Если бросить все ресурсы лучшей из потребительских видеокарт прошлого поколения — GeForce GTX 1080 Ti — на вычисления трассировки лучей, то итоговая производительность не превысит 11 % от того, на что в теории способен RTX 2080 Ti. Не менее важно и то, что свободные CUDA-ядра чипа Turing в то же время можно использовать для параллельной обработки других компонентов изображения — выполнения шейдерных программ, очереди неграфических расчетов Direct3D при асинхронном исполнении и так далее.

Что такое rtx

В реальных играх ситуация сложнее, ведь на существующем железе разработчики дозированно пользуются функциями DXR, а львиную долю вычислительной нагрузки по-прежнему занимает растеризация и шейдерные инструкции. К тому же часть различных эффектов, которые создаются при помощи трассировки лучей, неплохо исполняются и на CUDA-ядрах чипов Pascal. К примеру, зеркальные поверхности в Battlefield V не подразумевают вторичного отражения лучей, а следовательно, являются посильной нагрузкой для мощных видеокарт прошлого поколения. То же относится и к теням в Shadow of the Tomb Raider, хотя рендеринг сложных теней, сформированных несколькими источниками света, уже представляет собой более трудную задачу. А вот глобальное освещение в Metro Exodus с трудом дается даже «Тьюрингу», и от Pascal нельзя ожидать в какой-либо степени сопоставимых результатов.

Как ни крути, речь идет о многократной разнице в теоретическом быстродействии между представителями архитектуры Turing и их ближайшими аналогами на кремнии Pascal. Причем в пользу Turing играет не только присутствие RT-ядер, но и многочисленные усовершенствования общего характера, свойственные ускорителям нового поколения. Так, чипы Turing умеют параллельно выполнять операции над вещественными (FP32) и целочисленными (INT) данными, несут большой объем локальной кеш-памяти и отдельные CUDA-ядра для расчетов сниженной точности (FP16). Все это значит, что Turing не только лучше справляется с шейдерными программами, но и может сравнительно эффективно обсчитывать трассировку лучей без специализированных блоков. Ведь настолько ресурсоемким рендеринг при помощи Ray Tracing делает не только и не столько поиск пересечений между лучами и элементами геометрии (которым занимаются RT-ядра), сколько вычисление цвета в точке пересечения (shading). И между прочим, перечисленные достоинства архитектуры Turing в полной мере относятся к GeForce GTX 1660 и GTX 1660 Ti, хотя в чипе TU116 нет RT-ядер, поэтому тесты этих видеокарт с программной трассировкой лучей представляют отдельный интерес.

Но довольно теории, ведь мы уже собрали данные о производительности «Паскалей» (а также младших «Тьюрингов») в Battlefield V, Metro Exodus и Shadow of the Tomb Raider на основе собственных измерений. Заметим, что ни драйвер, ни сами игры не регулируют количество лучей для того, чтобы снизить нагрузку на GPU без RT-ядер, а значит, качество эффектов на GeForce GTX и GeForce RTX должно быть одинаковым.

⇡#Тестовый стенд, методика тестирования

Тестовый стенд
CPUIntel Core i9-9900K (4,9 ГГц, 4,8 ГГц в AVX, фиксированная частота)
Материнская платаASUS MAXIMUS XI APEX
Оперативная памятьG.Skill Trident Z RGB F4-3200C14D-16GTZR, 2 x 8 Гбайт (3200 МГц, CL14)
ПЗУIntel SSD 760p, 1024 Гбайт
Блок питанияCorsair AX1200i, 1200 Вт
Система охлаждения CPUCorsair Hydro Series H115i
КорпусCoolerMaster Test Bench V1.0
МониторNEC EA244UHD
Операционная системаWindows 10 Pro x64
ПО для GPU NVIDIA
NVIDIA GeForce RTX 20NVIDIA GeForce Game Ready Driver 419.67
NVIDIA GeForce GTX 10/16NVIDIA GeForce Game Ready Driver 425.31
Игровые тесты
ИграAPIНастройки, метод тестированияПолноэкранное сглаживание
1920 × 1080 / 2560 × 14403840 × 2160
Battlefield VDirectX 12OCAT, миссия Liberte. Макс. качество графикиTAA HighTAA High
Metro ExodusDirectX 12Встроенный бенчмарк. Профиль качества графики UltraTAATAA
Shadow of the Tomb RaiderDirectX 12Встроенный бенчмарк. Макс. качество графикиSMAA 4xВыкл.

Показатели средней и минимальной кадровых частот выводятся из массива времени рендеринга индивидуальных кадров, который записывает встроенный бенчмарк (Metro Exodus, Shadow of the Tomb Raider) или утилита OCAT, если в игре его нет (Battlefield V).

Средняя частота смены кадров на диаграммах является величиной, обратной среднему времени кадра. Для оценки минимальной кадровой частоты вычисляется количество кадров, сформированных в каждую секунду теста. Из этого массива чисел выбирается значение, соответствующее 1-му процентилю распределения.

Участники тестирования

В тестировании производительности приняли участие следующие видеокарты:

Battlefield V

Благодаря тому, что Battlefield V сама по себе является довольно нетребовательной игрой (особенно в режимах 1080p и 1440p), а трассировка лучей в ней применяется фрагментарно, испытание GeForce 10-й серии с опцией DXR принесло обнадеживающие результаты. Впрочем, из всех моделей без поддержки Ray Tracing на уровне кремния нам пришлось ограничиться моделями GTX 1070/1070 Ti и GTX 1080/1080 Ti. Игры Electronic Arts с подозрением реагируют на частую смену конфигурации железа и блокируют пользователя на период в одни или несколько суток. Поэтому замеры производительности GeForce GTX 1060 и двух устройств серии GeForce GTX 16 появятся в этой статье позже, как только Battlefield V снимет ограничения с нашей тестовой машины.

В процентном выражении любой из участников тестирования испытывает примерно одинаковое падение быстродействия при различных установках качества трассировки лучей вне зависимости от разрешения экрана. Так, быстродействие видеокарт под маркой GeForce RTX 20 снижается на 28–43 % при низком и среднем качестве эффектов DXR, а при высоком и максимальном — на 37–53 %.

Если речь идет о старших моделях семейства GeForce 10, то на уровнях трассировки лучей Low и Medium игра теряет от 36 до 42 % FPS, а при высоком качестве (настройки High и Ultra) DXR съедает уже 54–67 % частоты смены кадров. Заметим, что во многих, если не в большинстве игровых сцен Battlefield V нет выраженной разницы между настройками Low и Medium, а также между High и Ultra — ни по четкости изображения, ни по быстродействию. В надежде на то, что графические процессоры Pascal окажутся более чувствительными к этому параметру, мы провели тесты при всех четырех настройках. И действительно, проявились определенные различия, но только при разрешении 2160p и в пределах 6% FPS.

В абсолютных показателях любой из старших ускорителей на чипах Pascal может поддерживать кадровую частоту выше 60 FPS в режиме 1080p при сниженном качестве отражений, а GeForce GTX 1080 Ti претендует на аналогичный результат даже при трассировке на уровне High. Но стоит перейти к разрешению 1440p, и уже лишь GeForce GTX 1080 и GTX 1080 Ti обеспечивают комфортный фреймрейт на уровне 60 FPS и выше при качестве трассировки лучей Low или Medium, а в режиме 4К ни одна из карт прошлого поколения не обладает подходящей вычислительной мощностью (как, впрочем, и любой Turing за исключением флагманского GeForce RTX 2080 Ti).

Если искать параллели между конкретными ускорителями под маркой GeForce GTX 10 и GeForce RTX 20, то лучшая модель прошлого поколения (GeForce GTX 1080 Ti), которая в задачах стандартного рендеринга без DXR является аналогом GeForce RTX 2080, опустилась на уровень GeForce RTX 2070 при сниженном качестве трассировки лучей, а при высоком может бороться разве что с GeForce RTX 2060.

Дополнение: результаты GeForce GTX 1060, GTX 1660 и GTX 1660 Ti.

В тестах GeForce GTX 1660 и GTX 1660 Ti можно заметить слабые признаки того, что архитектура Turing и вправду лучше справляется с трассировкой лучей даже без поддержки RT-ядер по сравнению с видеокартами семейства Pascal аналогичного уровня — GeForce GTX 1070 и GTX 1070 Ti. При разрешениях 1080p и 1440p разница в потере быстродействия, которую GPU испытывает при активации DXR, между ускорителями 16-й серии, с одной стороны, и картами на чипе GP104, с другой, возникает при высоком и максимальном качестве эффектов трассировки лучей, пусть она и не превышает нескольких процентов. А вот в режиме 2160p при таких же настройках графический процессор TU116 уже выдерживает дополнительную нагрузку заметно лучше, чем «Паскали». Впрочем, последнее относится именно к GTX 1660 Ti: модель без приставки Ti с гибридным рендерингом в 4К откровенно не справляется.

Результаты двух моделей GeForce 16-й серии в абсолютных значениях частоты смены кадров также выглядят обнадеживающе. В режиме 1080p GeForce GTX 1660 и GTX 1660 Ti поддерживают около 60 FPS при низком и среднем качестве эффектов DXR, а при разрешении 1440p можно рассчитывать по меньшей мере на 30. Только в 4К с трассировкой лучей чипу TU116 делать уже нечего.

Что такое rtx

Battlefield V, макс. Качество
1920 × 1080 TAA
RT OffRT LowRT MediumRT HighRT Ultra
NVIDIA GeForce RTX 2080 Ti FE (11 Гбайт)100%-28%-28%-37%-39%
NVIDIA GeForce RTX 2080 FE (8 Гбайт)100%-34%-35%-43%-44%
NVIDIA GeForce RTX 2070 FE (8 Гбайт)100%-35%-36%-46%-45%
NVIDIA GeForce RTX 2060 FE (6 Гбайт)100%-42%-43%-50%-51%
NVIDIA GeForce GTX 1660 Ti (6 Гбайт)100%-38%-39%-55%-58%
NVIDIA GeForce GTX 1660 (6 Гбайт)100%-35%-36%-50%-53%
NVIDIA GeForce GTX 1080 Ti (11 Гбайт)100%-40%-39%-54%-58%
NVIDIA GeForce GTX 1080 (8 Гбайт)100%-41%-41%-57%-61%
NVIDIA GeForce GTX 1070 Ti (8 Гбайт)100%-40%-41%-57%-59%
NVIDIA GeForce GTX 1070 (8 Гбайт)100%-38%-39%-57%-61%
NVIDIA GeForce GTX 1060 (6 Гбайт)100%-36%-37%-57%-60%

Что такое rtx

Battlefield V, макс. Качество
2560 × 1440 TAA
RT OffRT LowRT MediumRT HighRT Ultra
NVIDIA GeForce RTX 2080 Ti FE (11 Гбайт)100%-33%-34%-44%-45%
NVIDIA GeForce RTX 2080 FE (8 Гбайт)100%-37%-38%-47%-49%
NVIDIA GeForce RTX 2070 FE (8 Гбайт)100%-36%-36%-48%-48%
NVIDIA GeForce RTX 2060 FE (6 Гбайт)100%-41%-42%-51%-52%
NVIDIA GeForce GTX 1660 Ti (6 Гбайт)100%-46%-45%-58%-60%
NVIDIA GeForce GTX 1660 (6 Гбайт)100%-39%-44%-55%-59%
NVIDIA GeForce GTX 1080 Ti (11 Гбайт)100%-40%-40%-59%-62%
NVIDIA GeForce GTX 1080 (8 Гбайт)100%-36%-39%-59%-63%
NVIDIA GeForce GTX 1070 Ti (8 Гбайт)100%-39%-39%-58%-62%
NVIDIA GeForce GTX 1070 (8 Гбайт)100%-38%-38%-59%-63%
NVIDIA GeForce GTX 1060 (6 Гбайт)100%-35%-39%-62%-64%

Что такое rtx

Battlefield V, макс. Качество
3840 × 2160 TAA
RT OffRT LowRT MediumRT HighRT Ultra
NVIDIA GeForce RTX 2080 Ti FE (11 Гбайт)100%-30%-30%-44%-47%
NVIDIA GeForce RTX 2080 FE (8 Гбайт)100%-31%-32%-46%-49%
NVIDIA GeForce RTX 2070 FE (8 Гбайт)100%-40%-38%-53%-52%
NVIDIA GeForce RTX 2060 FE (6 Гбайт)100%-28%-30%-44%-53%
NVIDIA GeForce GTX 1660 Ti (6 Гбайт)100%-34%-34%-52%-56%
NVIDIA GeForce GTX 1660 (6 Гбайт)100%-66%-71%-76%-79%
NVIDIA GeForce GTX 1080 Ti (11 Гбайт)100%-36%-37%-60%-63%
NVIDIA GeForce GTX 1080 (8 Гбайт)100%-40%-43%-64%-67%
NVIDIA GeForce GTX 1070 Ti (8 Гбайт)100%-38%-42%-62%-65%
NVIDIA GeForce GTX 1070 (8 Гбайт)100%-36%-42%-63%-66%
NVIDIA GeForce GTX 1060 (6 Гбайт)100%-59%-71%-92%-95%

⇡#Metro Exodus

В отличие от Battlefield V, графический движок Metro Exodus не дает пощады видеокартам, лишенным аппаратных функций трассировки лучей. Так, в режиме 1080p старшие представители семейства Turing (начиная с GeForce RTX 2060 и заканчивая RTX 2080 Ti) понесли урон в диапазоне от 18 до 20 % FPS при высоком качестве трассировки и от 27 до 31 % — при низком. Другие же участники тестирования в таких же условиях теряют 53–59 и 66–71 % исходной частоты смены кадров. При разрешении 1440p потери вычислительной мощности на трассировку лучей составляют 21–27 и 31–38 % для моделей GeForce RTX 20, а также 59–64 и 72–76 % для всех остальных — в зависимости от того, какая из двух опций качества активирована в бенчмарке.

Заметим, что, пусть младшие «Тьюринги» (GeForce GTX 1660 и GTX 1660 Ti) и имеют преимущество в программной трассировке лучей перед ускорителями на чипах Pascal благодаря общим оптимизациям новой архитектуры, в Metro Exodus они испытывают не менее сильное падение быстродействия, чем GeForce GTX 1060. Среди видеокарт без аппаратной поддержки DXR лучше всего держатся GeForce GTX 1080 и GTX 1080 Ti — просто за счет крупного массива шейдерных ALU.

Однако процентные оценки быстродействия еще не дают ответа на вопрос, можно ли с комфортом играть в Metro Exodus на ускорителях без аппаратных RT-ядер в условиях гибридного рендеринга. Результаты тестирования легко описать одним примером: GeForce GTX 1080 Ti обеспечивает не меньше 60 FPS в режимах 1080p и 1440p при ультравысоком качестве изображения и без трассировки лучей. Но когда были включены эффекты DXR, бывший флагман преодолел отметку 30 FPS только при разрешении 1080p и низшем качестве трассировки лучей (опция High), которое допускает Metro Exodus. Модель GeForce RTX 2060, которая сама по себе не блещет результатами в этой игре, в любых тестах с DXR демонстрирует более высокую производительность. Что и говорить о более слабых представителях серии GeForce GTX 10: к примеру, GeForce GTX 1060 с трассировкой лучей в Metro Exodus годится только для съемки скриншотов.

Что касается последних новинок NVIDIA — GeForce GTX 1660 и GTX 1660 Ti, — то результаты на уровне GeForce GTX 1070 и GTX 1070 Ti в тестах гибридного рендеринга едва ли можно рассматривать как достижение, коль скоро и без трассировки лучей эти представители прошлого и настоящего поколений видеокарт соотносятся примерно так же.

Что такое rtx

Metro Exodus, профиль Ultra
1920 × 1080 TAA
RT OffRT HighRT Ultra
NVIDIA GeForce RTX 2080 Ti FE (11 Гбайт)100%-18%-27%
NVIDIA GeForce RTX 2080 FE (8 Гбайт)100%-18%-27%
NVIDIA GeForce RTX 2070 FE (8 Гбайт)100%-17%-26%
NVIDIA GeForce RTX 2060 FE (6 Гбайт)100%-20%-31%
NVIDIA GeForce GTX 1660 Ti (6 Гбайт)100%-57%-69%
NVIDIA GeForce GTX 1660 (6 Гбайт)100%-59%-71%
NVIDIA GeForce GTX 1080 Ti (11 Гбайт)100%-53%-66%
NVIDIA GeForce GTX 1080 (8 Гбайт)100%-54%-68%
NVIDIA GeForce GTX 1070 Ti (8 Гбайт)100%-53%-67%
NVIDIA GeForce GTX 1070 (8 Гбайт)100%-56%-69%
NVIDIA GeForce GTX 1060 (6 Гбайт)100%-58%-71%

Что такое rtx

Metro Exodus, профиль Ultra
2560 × 1440 TAA
RT OffRT HighRT Ultra
NVIDIA GeForce RTX 2080 Ti FE (11 Гбайт)100%-21%-31%
NVIDIA GeForce RTX 2080 FE (8 Гбайт)100%-23%-33%
NVIDIA GeForce RTX 2070 FE (8 Гбайт)100%-22%-33%
NVIDIA GeForce RTX 2060 FE (6 Гбайт)100%-27%-38%
NVIDIA GeForce GTX 1660 Ti (6 Гбайт)100%-63%-74%
NVIDIA GeForce GTX 1660 (6 Гбайт)100%-65%-75%
NVIDIA GeForce GTX 1080 Ti (11 Гбайт)100%-59%-72%
NVIDIA GeForce GTX 1080 (8 Гбайт)100%-60%-73%
NVIDIA GeForce GTX 1070 Ti (8 Гбайт)100%-59%-72%
NVIDIA GeForce GTX 1070 (8 Гбайт)100%-62%-74%
NVIDIA GeForce GTX 1060 (6 Гбайт)100%-64%-76%

Что такое rtx

Metro Exodus, профиль Ultra
3840 × 2160 TAA
RT OffRT HighRT Ultra
NVIDIA GeForce RTX 2080 Ti FE (11 Гбайт)100%-29%-40%
NVIDIA GeForce RTX 2080 FE (8 Гбайт)100%-30%-43%
NVIDIA GeForce RTX 2070 FE (8 Гбайт)100%-28%-41%
NVIDIA GeForce RTX 2060 FE (6 Гбайт)100%-35%-47%
NVIDIA GeForce GTX 1660 Ti (6 Гбайт)100%-69%-80%
NVIDIA GeForce GTX 1660 (6 Гбайт)100%-70%-80%
NVIDIA GeForce GTX 1080 Ti (11 Гбайт)100%-66%-78%
NVIDIA GeForce GTX 1080 (8 Гбайт)100%-68%-79%
NVIDIA GeForce GTX 1070 Ti (8 Гбайт)100%-66%-78%
NVIDIA GeForce GTX 1070 (8 Гбайт)100%-69%-80%
NVIDIA GeForce GTX 1060 (6 Гбайт)100%-70%-81%

⇡#Shadow of the Tomb Raider

Из трех игр, которые в настоящий момент используют трассировку лучей в реальном времени, Shadow of the Tomb Raider располагается в промежутке между Battlefield V и Metro Exodus по требованиям к быстродействию GPU. Графический движок выполняет Ray Tracing для рендеринга теней с тремя уровнями детализации: от среднего до ультравысокого. Самая щадящая опция (Medium) на видеокартах под маркой GeForce RTX 20 забирает от 13 до 18 % частоты смены кадров — в зависимости от разрешения экрана. Впрочем, настройка Medium в Shadow of the Tomb Raider активирует трассировку лучей только для редких точечных источников света и в большинстве игровых сцен не производит заметного эффекта. Промежуточный вариант качества теней (High) снижает быстродействие этих устройств на 37–44 %, а высший (Ultra) — на 39–48 %.

Ускорители семейства GeForce GTX 10 при среднем качестве эффектов DXR отделались снижением быстродействия в 16–24 % (единственным исключением оказался GeForce GTX 1060, который потерял уже 31 % FPS при разрешении 1440p и 2160p). Установка высокого качества трассированных теней приводит к тому, что частота смены кадров на «Паскалях» падает на 41–57 % даже при разрешении экрана ниже 4К, а в режиме 2160p потери увеличиваются до 61–68 %. И наконец, ради трассировки на уровне Ultra владельцу видеокарты серии GeForce GTX 10 придется пожертвовать 54–67 % FPS при условно низких разрешениях экрана и 67-74 % в 4К.

Перед новыми устройствами NVIDIA в средней ценовой категории — GeForce GTX 1660 и GTX 1660 Ti — Shadow of the Tomb Raider открыл возможность доказать преимущества архитектуры Turing перед чипами Pascal без помощи специализированных RT-ядер. Действительно, эти ускорители справляются с тестами в условиях гибридного рендеринга более эффективно, чем близкие по производительности модели GeForce 10-й серии. Так, потери быстродействия на GeForce GTX 1660 Ti при трех уровнях качества эффектов DXR равняются 16–21, 50–55 и 51–61 % — в зависимости от разрешения экрана. У GeForce 1070 эти показатели достигают 19–21, 53–68 и 58–72 %.

Пусть эффекты трассировки лучей на минимальном уровне качества не так сильно повышают запросы игры к быстродействию железа, как в Metro Exodus или даже в Battlefield V, активация DXR мгновенно снимает с дистанции все видеокарты прошлого поколения. Исключением стал только GeForce GTX 1080 Ti: бывший флагман смог пробить отметку 60 FPS при разрешении 1080p. В любом случае, даже GeForce GTX 1080 Ti в любых тестах с трассировкой лучей проигрывает младшей модели среди полноценных «Тьюрингов» — GeForce RTX 2060.

Что такое rtx

Shadow of the Tomb Raider, макс. Качество
1920 × 1080 SMAA 4x
RT OffRT MediumRT HighRT Ultra
NVIDIA GeForce RTX 2080 Ti FE (11 Гбайт)100%-14%-38%-40%
NVIDIA GeForce RTX 2080 FE (8 Гбайт)100%-14%-40%-42%
NVIDIA GeForce RTX 2070 FE (8 Гбайт)100%-13%-38%-40%
NVIDIA GeForce RTX 2060 FE (6 Гбайт)100%-14%-40%-43%
NVIDIA GeForce GTX 1660 Ti (6 Гбайт)100%-16%-50%-51%
NVIDIA GeForce GTX 1660 (6 Гбайт)100%-16%-45%-50%
NVIDIA GeForce GTX 1080 Ti (11 Гбайт)100%-16%-49%-54%
NVIDIA GeForce GTX 1080 (8 Гбайт)100%-18%-51%-56%
NVIDIA GeForce GTX 1070 Ti (8 Гбайт)100%-18%-51%-55%
NVIDIA GeForce GTX 1070 (8 Гбайт)100%-19%-53%-58%
NVIDIA GeForce GTX 1060 (6 Гбайт)100%-19%-57%-63%

Что такое rtx

Shadow of the Tomb Raider, макс. Качество
2560 × 1440 SMAA 4x
RT OffRT MediumRT HighRT Ultra
NVIDIA GeForce RTX 2080 Ti FE (11 Гбайт)100%-14%-37%-39%
NVIDIA GeForce RTX 2080 FE (8 Гбайт)100%-15%-39%-41%
NVIDIA GeForce RTX 2070 FE (8 Гбайт)100%-15%-39%-41%
NVIDIA GeForce RTX 2060 FE (6 Гбайт)100%-17%-39%-43%
NVIDIA GeForce GTX 1660 Ti (6 Гбайт)100%-19%-48%-53%
NVIDIA GeForce GTX 1660 (6 Гбайт)100%-18%-48%-53%
NVIDIA GeForce GTX 1080 Ti (11 Гбайт)100%-18%-52%-57%
NVIDIA GeForce GTX 1080 (8 Гбайт)100%-19%-54%-60%
NVIDIA GeForce GTX 1070 Ti (8 Гбайт)100%-18%-54%-60%
NVIDIA GeForce GTX 1070 (8 Гбайт)100%-19%-57%-63%
NVIDIA GeForce GTX 1060 (6 Гбайт)100%-31%-41%-67%

Что такое rtx

Shadow of the Tomb Raider, макс. Качество
3840 × 2160 AA Off
RT OffRT MediumRT HighRT Ultra
NVIDIA GeForce RTX 2080 Ti FE (11 Гбайт)100%-14%-37%-40%
NVIDIA GeForce RTX 2080 FE (8 Гбайт)100%-18%-40%-43%
NVIDIA GeForce RTX 2070 FE (8 Гбайт)100%-18%-40%-43%
NVIDIA GeForce RTX 2060 FE (6 Гбайт)100%-22%-44%-48%
NVIDIA GeForce GTX 1660 Ti (6 Гбайт)100%-21%-55%-61%
NVIDIA GeForce GTX 1660 (6 Гбайт)100%-37%-59%-65%
NVIDIA GeForce GTX 1080 Ti (11 Гбайт)100%-21%-61%-67%
NVIDIA GeForce GTX 1080 (8 Гбайт)100%-23%-64%-70%
NVIDIA GeForce GTX 1070 Ti (8 Гбайт)100%-23%-63%-69%
NVIDIA GeForce GTX 1070 (8 Гбайт)100%-24%-66%-72%
NVIDIA GeForce GTX 1060 (6 Гбайт)100%-31%-68%-74%

⇡# Выводы

С тех пор как на рынке появились первые видеокарты под флагом «RTX On», NVIDIA неустанно убеждала нас в том, что трассировка лучей в реальном времени невозможна на железе прошлого поколения с приемлемой частотой смены кадров. Есть ли повод чувствовать себя обманутым теперь, когда функции DXR открылись для множества моделей семейства GeForce GTX 10 и GeForce GTX 16? Определенно нет, ведь такой неожиданный шаг со стороны NVIDIA пойдет на пользу всем — геймерам, игроделам и производителям железа. За счет поддержки гибридного рендеринга в новом драйвере для «Паскалей» NVIDIA многократно увеличила базу оборудования, на возможности которой будут ориентироваться создатели грядущих игровых проектов. И мы не сомневаемся, что AMD рано или поздно тоже сделает свои продукты совместимыми с DXR. По крайней мере на это вполне способны модели Radeon RX Vega и Radeon VII.

Как бы то ни было, для обладателей мощных ускорителей NVIDIA прошлого поколения у нас уже есть хорошие новости: оказалось, что GeForce GTX 1080 Ti справляется с играми, которые используют трассировку лучей, почти не менее успешно, чем GeForce RTX 2060. На первый взгляд, сомнительное достижение, если учесть разницу между GTX 1080 Ti и RTX 2060 в цене и энергопотреблении. Но с другой стороны, ресурсов старого флагмана (да и GeForce GTX 1080, с рядом оговорок) вполне достаточно для того, чтобы играть в Battlefield V и Shadow of the Tomb Raider с умеренными настройками эффектов DXR (в Metro Exodus с трассировкой лучей «Паскалям» уже делать нечего). А вот остальные видеокарты, которые NVIDIA допустила к гибридному рендерингу наряду с семейством GeForce RTX 20, не оправдали подобной чести — особенно GeForce GTX 1060, который годится лишь для того, чтобы делать впечатляющие скриншоты. Конечно, можно увеличить быстродействие за счет снижения других параметров детализации, но в таком случае рендеринг теней и отражений с помощью трассировки лучей едва ли компенсирует общее падение качества изображения.

Кроме того, NVIDIA стремится стремится делать так, что поддержка DXR всегда сопровождается опцией DLSS (Deep Learning Super Sampling), которая повышает быстродействие за счет рендеринга в сниженном разрешении с последующим масштабированием кадра на тензорных ядрах (они, напомним, есть лишь в картах GeForce RTX). Четкость картинки, пропущенной через нейросеть, пока что сильно плавает в различных играх. Пускай мы видели откровенно провальные образцы использования этой технологии (такие, как в Battlefield V), есть и примеры высокого качества — Final Fantasy XV и Shadow of the Tomb Raider. Но даже без DLSS преимущество новой архитектуры в играх с трассировкой лучей неоспоримо, и появление таких возможностей у старых GPU лишь дополнительно его подчеркивает.

Что касается младших ускорителей на чипах Turing из серии GeForce GTX 16, то усовершенствованная организация шейдерных ALU, несмотря на отсутствие RT-ядер, и вправду позволяет графическому процессору TU116 легче справляться с трассировкой лучей по сравнению с ближайшими по быстродействию устройствами 10-го семейства (GeForce GTX 1070 и GTX 1070 Ti). Вот только разница заметна больше всего при высоком качестве эффектов DXR, когда никакие видеокарты, помимо GeForce RTX, уже явно не вытягивают игру с приемлемой частотой смены кадров.

Источник

Добавить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *