В этом материале мы рассмотрим несколько профессиональных видеокарт NVIDIA, а также расскажем, в чем разница с их десктопными «аналогами». Поговорим о производительности, бюджетном тестировании и о том, как
подобрать GPU под свой проект, чтобы не переплачивать.
Базовые отличия
Десктопные видеокарты устанавливаются в ноутбуки и персональные компьютеры. Их характеристики больше заточены под быстродействие в играх и частную работу с графикой.
Серверные видеокарты иногда даже не имеют разъемов (HDMI, DVI) для вывода видео. Еще у них не всегда есть своя версия DirectX, поэтому поиграть на таких устройствах не получится.
Серверные видеокарты помогают проводить большое количество вычислений при меньшем энергопотреблении. На длительных дистанциях это хорошо помогает экономить на оплате счетов за электричество. Такие видеокарты используются в ML-разработке, майнинге, кинопроизводстве, рендеринге и моделировании сложных объектов.
В чем еще разница
Говорить о том, насколько похоже или отличается десктопное и серверное железо можно на разных условных уровнях. В материале мы будем больше говорить про сравнение конкретных видеокарт, но для полноты картины должны дать больше контекста.
Верхний уровень. Производство и производительность
У каждой
десктопной видеокарты есть множество версий от разных производителей: Asus, MSI, Gigabyte. Обычно NVIDIA и AMD передают технологии сторонним производителям, поэтому в магазинах можно наблюдать большой ценовой разброс на одни и те же модели видеокарт.
При этом NVIDIA и AMD всегда стремятся делать
серверные видеокарты самостоятельно и никому не доверяют лицензии на производство такого железа.
Кроме этого, NVIDIA прямо запрещает использование ряда своих продуктов с десктопными видеокартами. Компания также не приветствует использование таких карт дата-центрами, вплоть до штрафных санкций.
Если говорить о производительности, самый важный параметр, от которого зависит и быстродействие, и долговечность, — это вопрос рабочей температуры.
Видеокарты по-разному решают проблему охлаждения. Системы вентиляции в дата-центрах способны продувать целые кластеры, а в помещении поддерживается комфортный микроклимат с мониторингом состава воздуха. Повторить такое на домашнем стенде проблематично, поэтому нормально, что в таких условиях серверные видеокарты нагреваются больше.
Средний уровень. Драйверы и программное обеспечение
Здесь можно говорить о прошивке и драйверах.
Десктопные видеокарты ориентированы в основном на обеспечение высокого FPS в играх и простое моделирование.
Серверные ориентируются на показатели стабильности в работе с массивными проектами. Поэтому приложения для серверных видеокарт всегда предусматривают возможность масштабирования и объединения графических процессоров в кластер для обработки больших данных.
Как следствие, драйверы от серверных видеокарт плохо сочетаются с десктопным железом и наоборот.
Нижний уровень. Архитектура и спецификация
На нижнем уровне можно говорить об архитектурных отличиях памяти.
Память
серверных видеокарт работает с типом ECC (автоматическое исправление ошибок). ECC-память во многом зависит от объема и скорости оперативной памяти, потому что все время обращается к ней для исправления ошибок. Система экономит время на том, что процессы не приходится перезапускать и система работает стабильно.
Ошибки бывают двух типов: памяти и устройств. Причем вторые возникают достаточно часто как раз в десктопных видеокартах.
Игровые видеокарты менее приспособлены для сложного рендеринга как раз из-за ошибок устройств, которые возникают из-за электрических и магнитных возмущений внутри компьютера.
Игровые видеокарты используют non-ECC память, которая работает немного быстрее с простыми объектами, но хуже ведет себя, например, при построении ML-экспериментов. То есть, когда нужно работать с большими объемами данных и переменными.
Перейдем к разбору конкретных примеров.
3060 VS A2000
Построенную на архитектуре Ampere RTX А2000 можно считать одной из самых компактных серверных видеокарт. Она умещается даже в самые маленькие корпусы форм-фактора SFF. Еще один момент — карте не нужно дополнительное питание. Это одна из причин, почему ее так часто используют для майнинга.
RTX А2000 поддерживает даже трассировку лучей (реалистичный свет) и DLSS (сглаживание с алгоритмами глубокого обучения). Обычно таких возможностей ждут от игровых карт.
RTX А2000 построена на базе графического процессора GA106. Такой же используется в RTX 3050 и RTX 3060.
Количество шейдеров (потоковых процессоров) идет почти вровень с RTX 3060 и существенно опережает прошлую модель с показателем 2560.
С момента релиза А2000 прошло уже больше года, но видеокарта остается востребованной.
Во многих параметрах RTX 3060 или немного опережает по характеристикам RTX А2000, или идет вровень. RTX A2000 заметно обходит соперника только в плане энергопотребления. В целом, нельзя сказать, что это принципиально разные видеокарты.
Читайте больше про GPU в нашем блоге:
→ ML в Managed Kubernetes: для каких задач нужен кластер с GPU
→ GPU – только для майнеров? Разбираемся на опыте клиентов, кому нужны видеокарты и как выбрать подходящую
→ Как мы выбирали лучшие из 9 новых GPU NVIDIA
3070 VS A4000
RTX A4000 — это еще одна компактная однослотовая карта, которая во многом похожа на RTX 3070, но с полноценным чипом и неурезанными ядрами.
Обычно производители серверных видеокарт не уделяют много места системе охлаждения. Это обусловлено тем, что за их охлаждение отвечают системы дата-центра. В RTX А4000 удалось добиться относительно небольшого температурного разрыва с RTX 3070. Разница под нагрузкой составляет всего 7-9 градусов.
Несмотря на то, что видеокарты этого класса предназначены для работы с графикой и вычислениями, связанными с ИИ, на фоне дефицита в игровом сегменте они также получили широкое распространение.
О том, что А4000 еще долго не потеряет своей актуальности, говорит максимальный объем видеопамяти 16 ГБ. Пожалуй, лучший вариант для работы с анимацией в мидл-сегменте.
Несмотря на то, что RTX A4000 немного опережает свой десктопный аналог по части количества потоковых процессоров и максимального объема памяти — однозначного победителя здесь сложно выбрать.
3080 VS A5000
Основное различие между десктопной версией видеокарты и серверной версией в том, что RTX A5000 имеет 24 ГБ ЕСС-видеопамяти, тогда как RTX 3080 только 10 ГБ. В серверный корпус на 8 GPU можно поставить только две или три карты 3080, поскольку они занимают 2.5 слота. А5000 спокойно занимает все слоты корпуса.
В
стандартных тестах Blender разница в рендеринге видна сразу: RTX A5000 справляется со всеми задачами на 1-3% быстрее. В более сложном рендеринге, например, в тестах Maya, эта разница еще заметнее и достигает 13%.
Пожалуй, в противостоянии RTX 3080 и RTX A5000 разница в производительности самая очевидная из всех пар.
Если в прошлых парах мы могли говорить о том, что серверные видеокарты потребляют меньше энергии, то здесь ситуация впервые уравнивается.
3090 VS A6000
Первое, что стоит заметить, приступая к сравнению этих видеокарт, — они созданы на базе одного кристалла GA102. Часть показателей полностью совпадает, поэтому неудивительно, что карты показывают почти одинаковое время рендеринга на стандартных моделях из Blender или Maya. Разница не более 1%.
Эту пару можно назвать битвой титанов, поскольку здесь сходятся топовые представители своих линеек. Видеокарты во многом похожи, но RTX А6000 единственная карта из списка серверных, которая обгоняет оппонента по скорости текстурирования.
В более сложных задачах, связанных с рендерингом целых киносцен в RedShift, RTX A6000 может работать в два раза быстрее. Дело здесь не только в самом объеме видеопамяти, но и в автоматической работе над ошибками.
Если объединить производительность двух RTX 3090 с использованием NVLink, в теории можно добиться близких показателей, но сэкономить на такой конструкции не получится.
Покупать или арендовать видеокарту?
Сфера использования серверов с GPU достаточно обширна:
- рендеринг фото и видео,
- построение 3D-моделей,
- обработка и аналитика больших данных,
- статистические расчеты,
- криптография.
Выгода от покупки собственного железа может быть сомнительной. Во многом это зависит от задач и предположительных сроков использования.
- Рынок испытывает проблемы из-за кризиса полупроводников и сложностей с логистикой.
- Это достаточно дорого и компаниям, и физическим лицам, которым нужны сервера с GPU, например, для проверки гипотез или ML-экспериментов.
- При таком сценарии придется самостоятельно поддерживать IT-инфраструктуру.
Проблема не ограничивается покупкой видеокарты. Нужна сборка, корпус, материнская плата, CPU, диски и нужно оплачивать электричество.
Цена и время
Если есть понимание, что машина нужна на годы вперед для несложных проектов, сценарий с покупкой стоит рассмотреть подробнее. Да, придется купить не только карту, но и комплектующие, собрать все это и обслуживать. Тем не менее так удастся сэкономить на дистанции. Например, для дизайнеров-фрилансеров это настоящая инвестиция в себя и свои проекты.
Если задачи проекта предполагают сессионный формат работы или объемные вычислительные процессы, то лучше
использовать GPU в облаке. Такой подход поможет рассчитать, сколько ресурсов нужно проекту. Если первоначальная оценка не подтвердится, то можно легко масштабировать или оптимизировать IT-инфраструктуру проекта.
В общем случае десктопные видеокарты от серверных отличаются позиционированием со стороны производителя. Это одна и та же платформа, зачастую на одной и той же PCB, но на серверных не распаяна часть компонент, отвечающих за вывод сигнала, и установлена другая прошивка, с заниженными частотами и оптимизацией под серверное применение. Не знаю как сейчас, но ранее путём некоторых манипуляций, например, с Nvidia Tesla М40, мне удавалось заставить её работать как обычную игровую карту Nvidia Titan X (близнецом которой она и является), хоть и с поправкой на заниженніе частоты.
Как это нет видеовыхода? Как это не в десктоп? А САПР на чём? Revit там.
Нет видеовыхода - это про Nvidia Tesla. Их ещё используют в связке с Quadro.
да, все так, поэтому я написал, что "иногда" нет выхода
Это же не серверная видеокарта, это десктопная профессионального сегмента
Ну в статье "серверная" Ax000 без сноски что есть и для десктопа.
А также что "делают только сами"
На такую маленькую статью два замечания..
В статье просто не указан 3й сорт видеокарт - для рабочих станций.
У A100 нет видеовыходов. Впрочем, в статье ее даже не пытались с чем-то сравнить
Как ярый пользователь CAD ( более 14 лет проф опыта)
3060 vs A2000 12Gb ( автор сравнивайте одинаковые карты )
3060 в CAD'ах проигрывает особенно в 2D. либо глюки, либо не совместимость, либо некорректное отображение.
Я возможно не сильно понимаю в циферках, но разница в 2-2.5 раза(!) в частоте ядра - это не сильное отличие? (1320 МГц и 562 Мгц, 1500 МГц и 735 МГц)
Ну и совсем непонятны единицы измерения в строке "Частота памяти 19 000 МГц 16 ГБ/с" (первые три таблицы)
по таблицам вышел баг при верстке, сейчас все поправил
есть такой прайс у Форсайта. Может, стоит сравнить еще 4090 с А100 ? ))
Пишите какую-то ерунду прямо. Это не серверные видеокарты, а для проф. применения. 3D, рендер, видео редактирование и кодирование. Что касается A2000 есть замечательная версия и с 12Gb памяти. Основная разница между этими картами и игровыми в драйверах. В игровых - конвейер для сетки короткий, а для текстурирования длинный. В проф. картах все наоборот. Для сетки - длинный, для текстур по остатку. Отсюда все и вертится быстрее + разные оптимизации под конкретный софт.
Статья напомнила мне, как давным давно путем нехитрых манипуляций radeon8500 превращался в firegl8800 путем патчинга и установки драйвера. Производительность в CADах возрастала существенно. ЕМНИП основное отличие было в opengl драйвере, да у firegl частоты были повыше (300/300 против 275/275).
Да и некоторые GeForce перешивались в Quadro. Тоже в CAD разница чувствовалась.