Могут ли десктопные видеокарты сравниться с серверными? Исследуем бенчмарки GPU от NVIDIA +43



В этом материале мы рассмотрим несколько профессиональных видеокарт NVIDIA, а также расскажем, в чем разница с их десктопными «аналогами». Поговорим о производительности, бюджетном тестировании и о том, как подобрать GPU под свой проект, чтобы не переплачивать.

Базовые отличия


Десктопные видеокарты устанавливаются в ноутбуки и персональные компьютеры. Их характеристики больше заточены под быстродействие в играх и частную работу с графикой.

Серверные видеокарты иногда даже не имеют разъемов (HDMI, DVI) для вывода видео. Еще у них не всегда есть своя версия DirectX, поэтому поиграть на таких устройствах не получится.

Серверные видеокарты помогают проводить большое количество вычислений при меньшем энергопотреблении. На длительных дистанциях это хорошо помогает экономить на оплате счетов за электричество. Такие видеокарты используются в ML-разработке, майнинге, кинопроизводстве, рендеринге и моделировании сложных объектов.

В чем еще разница


Говорить о том, насколько похоже или отличается десктопное и серверное железо можно на разных условных уровнях. В материале мы будем больше говорить про сравнение конкретных видеокарт, но для полноты картины должны дать больше контекста.

Верхний уровень. Производство и производительность


У каждой десктопной видеокарты есть множество версий от разных производителей: Asus, MSI, Gigabyte. Обычно NVIDIA и AMD передают технологии сторонним производителям, поэтому в магазинах можно наблюдать большой ценовой разброс на одни и те же модели видеокарт.

При этом NVIDIA и AMD всегда стремятся делать серверные видеокарты самостоятельно и никому не доверяют лицензии на производство такого железа.

Кроме этого, NVIDIA прямо запрещает использование ряда своих продуктов с десктопными видеокартами. Компания также не приветствует использование таких карт дата-центрами, вплоть до штрафных санкций.

Если говорить о производительности, самый важный параметр, от которого зависит и быстродействие, и долговечность, — это вопрос рабочей температуры.

Видеокарты по-разному решают проблему охлаждения. Системы вентиляции в дата-центрах способны продувать целые кластеры, а в помещении поддерживается комфортный микроклимат с мониторингом состава воздуха. Повторить такое на домашнем стенде проблематично, поэтому нормально, что в таких условиях серверные видеокарты нагреваются больше.

Средний уровень. Драйверы и программное обеспечение


Здесь можно говорить о прошивке и драйверах. Десктопные видеокарты ориентированы в основном на обеспечение высокого FPS в играх и простое моделирование. Серверные ориентируются на показатели стабильности в работе с массивными проектами. Поэтому приложения для серверных видеокарт всегда предусматривают возможность масштабирования и объединения графических процессоров в кластер для обработки больших данных.

Как следствие, драйверы от серверных видеокарт плохо сочетаются с десктопным железом и наоборот.

Нижний уровень. Архитектура и спецификация


На нижнем уровне можно говорить об архитектурных отличиях памяти.

Память серверных видеокарт работает с типом ECC (автоматическое исправление ошибок). ECC-память во многом зависит от объема и скорости оперативной памяти, потому что все время обращается к ней для исправления ошибок. Система экономит время на том, что процессы не приходится перезапускать и система работает стабильно.

Ошибки бывают двух типов: памяти и устройств. Причем вторые возникают достаточно часто как раз в десктопных видеокартах.

Игровые видеокарты менее приспособлены для сложного рендеринга как раз из-за ошибок устройств, которые возникают из-за электрических и магнитных возмущений внутри компьютера.

Игровые видеокарты используют non-ECC память, которая работает немного быстрее с простыми объектами, но хуже ведет себя, например, при построении ML-экспериментов. То есть, когда нужно работать с большими объемами данных и переменными.

Перейдем к разбору конкретных примеров.


3060 VS A2000


Построенную на архитектуре Ampere RTX А2000 можно считать одной из самых компактных серверных видеокарт. Она умещается даже в самые маленькие корпусы форм-фактора SFF. Еще один момент — карте не нужно дополнительное питание. Это одна из причин, почему ее так часто используют для майнинга.

RTX А2000 поддерживает даже трассировку лучей (реалистичный свет) и DLSS (сглаживание с алгоритмами глубокого обучения). Обычно таких возможностей ждут от игровых карт.

RTX А2000 построена на базе графического процессора GA106. Такой же используется в RTX 3050 и RTX 3060.

Количество шейдеров (потоковых процессоров) идет почти вровень с RTX 3060 и существенно опережает прошлую модель с показателем 2560.

С момента релиза А2000 прошло уже больше года, но видеокарта остается востребованной.

Характеристика RTX 3060 RTX A2000
Количество потоковых процессоров 3584 3328
Частота ядра 1 320 МГц 562 Мгц
Частота в режиме Boost 1 777 МГц 1 200 МГц
Количество транзисторов 13 250 млн 13 250 млн
Технологический процесс 8 нм 8 нм
Энергопотребление (TDP) 170 Вт 70 Вт
Скорость текстурирования 199.0 124.8
Тип памяти GDDR6 GDDR6
Максимальный объем памяти 12 ГБ 6 ГБ
Ширина шины памяти 192 бит 192 бит
Частота памяти 15 000 МГц 1 500 МГц
Пропускная способность памяти 360.0 ГБ/с 288.0 ГБ/с

Во многих параметрах RTX 3060 или немного опережает по характеристикам RTX А2000, или идет вровень. RTX A2000 заметно обходит соперника только в плане энергопотребления. В целом, нельзя сказать, что это принципиально разные видеокарты.

Читайте больше про GPU в нашем блоге:

ML в Managed Kubernetes: для каких задач нужен кластер с GPU
GPU – только для майнеров? Разбираемся на опыте клиентов, кому нужны видеокарты и как выбрать подходящую
Как мы выбирали лучшие из 9 новых GPU NVIDIA

3070 VS A4000


RTX A4000 — это еще одна компактная однослотовая карта, которая во многом похожа на RTX 3070, но с полноценным чипом и неурезанными ядрами.

Обычно производители серверных видеокарт не уделяют много места системе охлаждения. Это обусловлено тем, что за их охлаждение отвечают системы дата-центра. В RTX А4000 удалось добиться относительно небольшого температурного разрыва с RTX 3070. Разница под нагрузкой составляет всего 7-9 градусов.

Несмотря на то, что видеокарты этого класса предназначены для работы с графикой и вычислениями, связанными с ИИ, на фоне дефицита в игровом сегменте они также получили широкое распространение.

О том, что А4000 еще долго не потеряет своей актуальности, говорит максимальный объем видеопамяти 16 ГБ. Пожалуй, лучший вариант для работы с анимацией в мидл-сегменте.

Характеристика RTX 3070 RTX A4000
Количество потоковых процессоров 5888 6144
Частота ядра 1 500 МГц 735 МГц
Частота в режиме Boost 1 725 МГц 1 745 МГц
Количество транзисторов 17 400 млн 17 400 млн
Технологический процесс 8 нм 8 нм
Энергопотребление (TDP) 220 Вт 140 Вт
Скорость текстурирования 317.4 299.5
Тип памяти GDDR6 GDDR6
Максимальный объем памяти 8 ГБ 16 ГБ
Ширина шины памяти 256 бит 256 бит
Частота памяти 14 000 МГц 1 750 МГц
Пропускная способность памяти 448.0 ГБ/с 448.0 ГБ/с

Несмотря на то, что RTX A4000 немного опережает свой десктопный аналог по части количества потоковых процессоров и максимального объема памяти — однозначного победителя здесь сложно выбрать.

3080 VS A5000


Основное различие между десктопной версией видеокарты и серверной версией в том, что RTX A5000 имеет 24 ГБ ЕСС-видеопамяти, тогда как RTX 3080 только 10 ГБ. В серверный корпус на 8 GPU можно поставить только две или три карты 3080, поскольку они занимают 2.5 слота. А5000 спокойно занимает все слоты корпуса.

В стандартных тестах Blender разница в рендеринге видна сразу: RTX A5000 справляется со всеми задачами на 1-3% быстрее. В более сложном рендеринге, например, в тестах Maya, эта разница еще заметнее и достигает 13%.

Пожалуй, в противостоянии RTX 3080 и RTX A5000 разница в производительности самая очевидная из всех пар.

Характеристика RTX 3080 RTX A5000
Количество потоковых процессоров 8704 8192
Частота ядра 1 450 МГц 1 170 МГц
Частота в режиме Boost 1 710 МГц 1 695 МГц
Количество транзисторов 28 300 млн 28 300 млн
Технологический процесс 8 нм 8 нм
Энергопотребление (TDP) 320 Вт 320 Вт
Скорость текстурирования 465.1 433.9
Тип памяти GDDR6X GDDR6X
Максимальный объем памяти 10 ГБ 24 ГБ
Ширина шины памяти 320 бит 384 бит
Частота памяти 19 000 МГц 2 000 МГц
Пропускная способность памяти 760.3 ГБ/с 768.0 ГБ/с

Если в прошлых парах мы могли говорить о том, что серверные видеокарты потребляют меньше энергии, то здесь ситуация впервые уравнивается.

3090 VS A6000


Первое, что стоит заметить, приступая к сравнению этих видеокарт, — они созданы на базе одного кристалла GA102. Часть показателей полностью совпадает, поэтому неудивительно, что карты показывают почти одинаковое время рендеринга на стандартных моделях из Blender или Maya. Разница не более 1%.

Характеристика RTX 3090 RTX A6000
Количество потоковых процессоров 10 496 10 752
Частота ядра 1 400 МГц 1 410 МГц
Частота в режиме Boost 1 700 МГц 1 800 МГц
Количество транзисторов 28 300 млн 28 300 млн
Технологический процесс 8 нм 8 нм
Энергопотребление (TDP) 350 Вт 300 Вт
Скорость текстурирования 556.0 625.0
Тип памяти GDDR6X GDDR6X
Максимальный объем памяти 24 ГБ 48 ГБ
Ширина шины памяти 384 бит 384 бит
Частота памяти 19 500 МГц 16 000 МГц
Пропускная способность памяти 936.2 ГБ/с 768.0 ГБ/с

Эту пару можно назвать битвой титанов, поскольку здесь сходятся топовые представители своих линеек. Видеокарты во многом похожи, но RTX А6000 единственная карта из списка серверных, которая обгоняет оппонента по скорости текстурирования.

В более сложных задачах, связанных с рендерингом целых киносцен в RedShift, RTX A6000 может работать в два раза быстрее. Дело здесь не только в самом объеме видеопамяти, но и в автоматической работе над ошибками.

Если объединить производительность двух RTX 3090 с использованием NVLink, в теории можно добиться близких показателей, но сэкономить на такой конструкции не получится.

Покупать или арендовать видеокарту?


Сфера использования серверов с GPU достаточно обширна:

  • рендеринг фото и видео,
  • построение 3D-моделей,
  • обработка и аналитика больших данных,
  • статистические расчеты,
  • криптография.

Выгода от покупки собственного железа может быть сомнительной. Во многом это зависит от задач и предположительных сроков использования.

  • Рынок испытывает проблемы из-за кризиса полупроводников и сложностей с логистикой.
  • Это достаточно дорого и компаниям, и физическим лицам, которым нужны сервера с GPU, например, для проверки гипотез или ML-экспериментов.
  • При таком сценарии придется самостоятельно поддерживать IT-инфраструктуру.

Проблема не ограничивается покупкой видеокарты. Нужна сборка, корпус, материнская плата, CPU, диски и нужно оплачивать электричество.

Цена и время


Если есть понимание, что машина нужна на годы вперед для несложных проектов, сценарий с покупкой стоит рассмотреть подробнее. Да, придется купить не только карту, но и комплектующие, собрать все это и обслуживать. Тем не менее так удастся сэкономить на дистанции. Например, для дизайнеров-фрилансеров это настоящая инвестиция в себя и свои проекты.

Если задачи проекта предполагают сессионный формат работы или объемные вычислительные процессы, то лучше использовать GPU в облаке. Такой подход поможет рассчитать, сколько ресурсов нужно проекту. Если первоначальная оценка не подтвердится, то можно легко масштабировать или оптимизировать IT-инфраструктуру проекта.




Комментарии (15):

  1. PuerteMuerte
    /#24984220 / +1

    В общем случае десктопные видеокарты от серверных отличаются позиционированием со стороны производителя. Это одна и та же платформа, зачастую на одной и той же PCB, но на серверных не распаяна часть компонент, отвечающих за вывод сигнала, и установлена другая прошивка, с заниженными частотами и оптимизацией под серверное применение. Не знаю как сейчас, но ранее путём некоторых манипуляций, например, с Nvidia Tesla М40, мне удавалось заставить её работать как обычную игровую карту Nvidia Titan X (близнецом которой она и является), хоть и с поправкой на заниженніе частоты.

  2. Paultino
    /#24984276

    Как это нет видеовыхода? Как это не в десктоп? А САПР на чём? Revit там.

    • Darkhon
      /#24984286 / +2

      Нет видеовыхода - это про Nvidia Tesla. Их ещё используют в связке с Quadro.

    • selenzorn
      /#24984298

      да, все так, поэтому я написал, что "иногда" нет выхода

    • PuerteMuerte
      /#24984362

      Это же не серверная видеокарта, это десктопная профессионального сегмента

      • Paultino
        /#24984414

        Ну в статье "серверная" Ax000 без сноски что есть и для десктопа.

        А также что "делают только сами"

        На такую маленькую статью два замечания..

    • koresh_builder
      /#24984922 / +1

      В статье просто не указан 3й сорт видеокарт - для рабочих станций.

    • ptr128
      /#24985694

      У A100 нет видеовыходов. Впрочем, в статье ее даже не пытались с чем-то сравнить

  3. PTM
    /#24986000

    Как ярый пользователь CAD ( более 14 лет проф опыта)

    3060 vs A2000 12Gb ( автор сравнивайте одинаковые карты )

    3060 в CAD'ах проигрывает особенно в 2D. либо глюки, либо не совместимость, либо некорректное отображение.

  4. aMster1
    /#24986066

    Я возможно не сильно понимаю в циферках, но разница в 2-2.5 раза(!) в частоте ядра - это не сильное отличие? (1320 МГц и 562 Мгц, 1500 МГц и 735 МГц)

    Ну и совсем непонятны единицы измерения в строке "Частота памяти 19 000 МГц 16 ГБ/с" (первые три таблицы)

    • selenzorn
      /#24986236

      по таблицам вышел баг при верстке, сейчас все поправил

  5. SHA_LIM
    /#24986318

    есть такой прайс у Форсайта. Может, стоит сравнить еще 4090 с А100 ? ))

  6. woodoodm
    /#24987100 / +1

    Пишите какую-то ерунду прямо. Это не серверные видеокарты, а для проф. применения. 3D, рендер, видео редактирование и кодирование. Что касается A2000 есть замечательная версия и с 12Gb памяти. Основная разница между этими картами и игровыми в драйверах. В игровых - конвейер для сетки короткий, а для текстурирования длинный. В проф. картах все наоборот. Для сетки - длинный, для текстур по остатку. Отсюда все и вертится быстрее + разные оптимизации под конкретный софт.

  7. Disen
    /#24987282

    Статья напомнила мне, как давным давно путем нехитрых манипуляций radeon8500 превращался в firegl8800 путем патчинга и установки драйвера. Производительность в CADах возрастала существенно. ЕМНИП основное отличие было в opengl драйвере, да у firegl частоты были повыше (300/300 против 275/275).

    • k0ldbl00d
      /#24987358

      Да и некоторые GeForce перешивались в Quadro. Тоже в CAD разница чувствовалась.