AMD Radeon или NVIDIA GeForce — сравнение лучших игровых видеокарт 2021 года

Содержание

AMD Radeon или NVIDIA GeForce — сравнение лучших игровых видеокарт 2021 года

Владислав Романов

Если сборка игрового ПК осуществляется при практически неограниченном бюджете, то можно смотреть в сторону топовых видеокарт. Но продукции какого производителя отдать предпочтение? NVIDIA или AMD? Давайте постараемся ответить на этот вопрос.

В этом материале мы сравним две видеокарты, в основе которых лежит продукция компаний-конкурентов. Но они не будут референсными, так как найти их в продаже — практически невозможно. Вместо этого мы будем сравнивать дискретные видеоадаптерты, созданные силами сторонних компаний. Сейчас они продаются во многих российских интернет-магазинах. Если говорить точнее, то мы будем сравнивать между собой следующие модели:

ASRock AMD Radeon RX 6900 XT OC Formula — обладает солидным объемом видеопамяти, а также имеет 80 улучшенных вычислительных блоков;

Palit GeForce RTX 3080 GamingPro — использует память нового типа GDDR6X с повышенной до 320 бит разрядностью шины.

Содержание:

AMD Radeon или NVIDIA GeForce — сравнение лучших игровых видеокарт 2021 года

Palit GeForce RTX 3080 GamingPro

1. Дизайн

AMD Radeon или NVIDIA GeForce — сравнение лучших игровых видеокарт 2021 года

В основном геймеры при покупке видеокарты ориентируются на результаты тестов и технические характеристики. Но некоторые люди при прочих равных смотрят на дизайн устройств. В этом плане оба выбранных нами графических адаптера поначалу кажутся сопоставимыми друг с другом. В частности, оба они располагают светодиодной подсветкой. Это значит, что данные модели будут идеально смотреться в игровом ПК, обладающем стеклянной дверцей.

Отличие двух видеокарт заключаются в их размерах. Обе модели занимают три слота расширения, что уже кого-то может напугать. Но продукт от АМД — почти на 4 см длиннее. Поэтому перед покупкой следует уточнить, поместится ли видеокарта в корпус. Не будут ли ей мешать, например, накопители. К слову, длина сказалась и на весе — устройство от NVIDIA примерно на 500 г легче.

Наименование

Слоты расширения

ASRock AMD Radeon RX 6900 XT OC Formula

Palit GeForce RTX 3080 GamingPro

Отметим, что обе видеокарты при таких габаритах и весе требуют кронштейна для поддержки. К счастью, этот дополнительный элемент имеется в комплекте. Компания Palit положила в коробку ещё и переходник для питания.

2. Видеопроцессор

AMD Radeon или NVIDIA GeForce — сравнение лучших игровых видеокарт 2021 года

В обоих устройствах видеочип выполнен по похожему техпроцессу. Разница составляет всего 1 нм, её можно не принимать во внимание. Однако технологии использовались разные. На бумаге цифры выглядят лучше у AMD Radeon RX 6900 XT. Даже штатная частота у неё достигает 2125 МГц. А компания ASRock разогнала этот параметр до 2475 МГц! Ещё видеокарта имеет 80 RT-ядер, благодаря которым реализована трассировка лучей. Это тоже очень хорошая цифра.

Наименование

Штатная частота

Турбочастота

Кол-во RT-ядер

ASRock AMD Radeon RX 6900 XT OC Formula

Palit GeForce RTX 3080 GamingPro

Что касается графического адаптера от NVIDIA, то он в этом плане сильно проигрывает. Штатная частота его видеочипа достигает лишь 1440 МГц. И даже разгон не позволил сколь-либо сильно приблизиться к конкуренту, что вы видите по приведённой выше таблице. И если вы будете играть в 4K-разрешении, то не исключено, что придётся отключать трассировку лучей, так как в состав устройства входят только 68 RT-ядер. Впрочем, проблему решает активация технологии DLSS. Но об этом мы поговорим отдельно.

AMD Radeon или NVIDIA GeForce — сравнение лучших игровых видеокарт 2021 года

ASRock AMD Radeon RX 6900 XT OC Formula

Наибольший объём видеопамяти

3. Память

Многие геймеры до сих пор в первую очередь смотрят на то, сколько видеопамяти получил графический адаптер, и лишь затем — на все остальные характеристики. В этом случае Radeon можно считать однозначным победителем. В состав этого адаптера входят 16 ГБ памяти. Кого-то может смутить 256-битная разрядность шины, из-за которой пропускная способность составляет лишь 512 Гбайт/с. Однако в этом нет ничего страшного. Спасает 128-мегабайтная кэш-память на кристалле, которая компенсирует эффект от узкой шины.

Наименование

Объём памяти

Пропускная способность

ASRock AMD Radeon RX 6900 XT OC Formula

Palit GeForce RTX 3080 GamingPro

Что касается видеоадаптера от NVIDIA, то он имеет в своём составе только 10 ГБ памяти, но зато она принадлежит к типу GDDR6X. На бумаге замечательно выглядит и шина, получившая едва ли не максимальную пропускную способность. Однако на практике эффект от всего этого можно заметить только в некоторых играх, и лишь при их запуске в 4K-разрешении. Впрочем, это можно сказать и о памяти, внедрённой в видеокарту от AMD — расходовать свыше 10 ГБ способна далеко не каждая игра, и не во всех условиях. Поэтому оба устройства получили примерно равные оценки.

4. Шейдерные ALU

В этом сравнении мы говорим об игровых видеокартах. Однако это не значит, что они не будут использоваться в каких-то других целях. Если вы регулярно снимаете и монтируете видео в разрешении 4K, то вам важно знать количество шейдерных процессоров. В случае с NVIDIA их ещё называют CUDA-ядрами.

Наименование

Шейдерные ядра

ASRock AMD Radeon RX 6900 XT OC Formula

Palit GeForce RTX 3080 GamingPro

Как видно по разместившейся выше таблице, продукт AMD — не самым лучшим образом подходит для видеомонтажа. Конкурент предлагает в полтора раза большее число ядер, работающих с видеопотоком. Неудивительно, что рендеринг при использовании NVIDIA занимает меньше времени. Это подтверждают и всевозможные тесты, которые легко находятся в интернете.

AMD Radeon или NVIDIA GeForce — сравнение лучших игровых видеокарт 2021 года

Palit GeForce RTX 3080 GamingPro

Большая пропускная способность шины

5. Нагрев

AMD Radeon или NVIDIA GeForce — сравнение лучших игровых видеокарт 2021 года

Обе видеокарты оснащены прекрасной системой охлаждения, состоящей из массивных тепловых трубок и трёх вентиляторов. Измерения показывают, что в обоих случаях рассеивание тепла происходит максимально эффективно. На открытом стенде GeForce разогревался до 80°C, а Radeon — до 73°C. Вполне приемлемо. Можно не сомневаться, что сбои из-за перегрева точно исключены.

Важно и то, насколько шумно себя ведут кулеры. В этом плане к изделиям тоже нет никаких претензий. Чаще всего их обороты составляют 40-50% от предельного значения. Уровень шума в этом случае не превышает 39 дБ. Если корпус компьютера закрыт, то при игре вы точно ничего не услышите. И лишь если отключить звук, становится заметным тихое жужжание. Это касается обеих видеокарт, особой разницы между ними нет. Но это не значит, что они являются самыми тихими. Таковыми можно назвать только модели с водоблоком.

6. Энергопотребление

Достаточно взглянуть на разъёмы дополнительного питания, как становится понятно, что видеокарта от NVIDIA будет расходовать в играх меньший объем электроэнергии. Здесь используются два 8-пиновых гнезда. Сам производитель утверждает, что максимально его творение потребляет 320-350 Вт. В результате видеокарту можно использовать в паре с блоком питания на 750 Вт, особенно если в материнской плате стоит не особо аппетитный процессор.

Какая видеокарта лучше AMD или NVIDIA? (Сравнение AMD и NVIDIA GPU)

Некоторые аргументы в техническом мире могут быть перегреты. И одна из спорных дискуссий, с которыми сталкивается игровая индустрия, — какой графический процессор лучше — NVIDIA или AMD. Как и в любой острой дискуссии, есть много разных моментов, которые разделяют оба графических процессора. Таким образом, не принимая каких-либо услуг, мы собираемся установить четкое разница между AMD против Nvidia. Прежде чем начать, давайте сначала разберемся с графическим процессором и важностью графического процессора в компьютере.

Что такое видеокарта?

Графическая карта также известна как графический адаптер, графический контроллер отвечает за рендеринг изображения на ваш монитор. И делает это путем преобразования данных в сигнал, понятный вашему монитору. Это означает, что чем лучше видеокарта, тем лучше и более плавное изображение, что особенно важно для геймеров и видеоредакторов.

GPU расшифровывается как Graphics Processing Unit — мозг графической карты и создает визуальные эффекты, которые вы видите на экране. Графический процессор работает как переводчик, он принимает данные, поступающие от процессора, и преобразует их в образы. Более сложные визуальные эффекты, как в играх высокой четкости, требуют более сложных и более быстрых графических процессоров для размещения потока данных.

Графическая карта представляет собой аппаратное обеспечение в целом, в то время как графический процессор представляет собой микросхему, часть графической карты или встроенную аналогичную, что означает «графический процессор».

Видеокарта

Интегрированный графический процессор представляет собой графический чипсет, встроенный в материнскую плату. Где выделенный графический процессор — это второй графический процессор, установленный на материнской плате. Если вы говорите о ПК, то встроенный графический процессор, скорее всего, будет чипом Intel, а выделенный графический процессор — чипом Nvidia или AMD. Здесь разница между встроенным и выделенным графическим процессором.

GPU более мощный, чем CPU?

Графические процессоры являются более мощными, чем процессорные, поскольку графические процессоры имеют гораздо большее количество относительно уникальных процессорных ядер. Мы используем их не во всем, потому что они требуют коллективной работы, в которой подавляющая численность приводит к повышению производительности.

Разница между AMD и NVIDIA

Существует два основных производителя дискретных видеокарт — AMD и Nvidia. AMD и NVIDIA годами выпускают видеокарты и постоянно расширяют границы технологии GPU. У AMD и NVIDIA одна и та же конечная цель: обеспечить плавную и быструю визуальную производительность. Однако каждая компания использует свой подход к достижению этой цели. Здесь у нас есть простое сравнение между AMD и NVIDIA, которое поможет вам выбрать правильный.

Сравнение AMD с NVIDIA

AMD против производительности NVIDIA GPU

Когда мы говорим о графических процессорах, то, прежде всего, мы должны учитывать фактор производительности. Во-первых, необходимо определить эталон производительности GPU, например, сколько кадров в секунду он может выдвигать или как он может запускать Crysis на средних и высоких скоростях. Здесь мы не можем выразить производительность обоих графических процессоров в одной строке, поскольку производительность варьируется от модели к модели. Но с Nvidia и AMD график производительности похож на монитор сердца — на одну минуту вверх, а на другую — вниз. Таким образом, нет четкого сравнения.

AMD против NVIDIA GPU Цена

Это очень очевидный фактор, когда AMD выигрывает с большим отрывом. Графические карты AMD всегда стоят своей цены, поскольку они предлагают больше по ограниченной цене. Тем не менее, в случае низких процентных ставок это происходит так: если у вас умеренный бюджет на 200-300 долларов, все становится иначе. В этом ценовом диапазоне у AMD есть только два варианта, в то время как у Nvidia есть ряд высокопроизводительных графических процессоров. Если вам нужна высокая мощность вашего процессора, то в конечном итоге вам придется заплатить и более высокую цену.

AMD против аппаратной технологии NVIDIA GPU

Итак, нет никаких споров по этому вопросу, что Nvidia использовала технологии намного лучше, чем AMD. Их графический процессор высокопроизводителен, лучше выполняет вычислительные задачи, вырабатывает меньше тепла и потребляет меньше энергии. Однако AMD компенсирует это увеличением пропускной способности памяти на своих менее дорогих моделях. Но, тем не менее, вы не можете предвидеть, что они производят больше тепла и потребляют дополнительную энергию.

AMD против графических процессоров NVIDIA

Ядра CUDA и потоковые процессоры — две разные технологии, используемые Nvidia и AMD соответственно. Таким образом, обе технологии одинаковы, и никакие конкретные оценки производительности не могут быть сделаны здесь. В конце концов, все дело в оптимизации программного обеспечения. Вы заметите немного другое, когда некоторые технологии войдут в контекст, такой как Nvidia PhysX или Nvidia HairWorks.

AMD против NVIDIA GPU

Это раздел, в котором вы найдете некоторые радикальные различия, поскольку каждая компания хочет создать монополию на рынке программного обеспечения. В графических картах драйверы и панели управления рассматриваются вместо программного обеспечения. Мы не можем комментировать драйверы, так как Nvidia и AMD постоянно выпускают новые драйверы, но если вы хотите получить ответ, то мы можем сказать, что Nvidia имеет преимущество.

Говоря о панелях управления, если вы соберете панели управления AMD и Nvidia вместе, вы автоматически увидите, что панель управления Nvidia устарела. С другой стороны, Центр управления AMD выглядит очень модно и ново с чистым и современным дизайном. Это идет с эффектами успокаивающего синего фона, которые заставляют это выглядеть очень современным.

Особенности AMD и NVIDIA GPU

Как уже выяснилось, вам понадобится FPS-хит, когда вы захотите записать или сыграть в потоковом режиме. Итак, если вы готовы инвестировать в карту захвата хорошего качества, значит, у вас все хорошо, в противном случае вам понадобится приличная частота кадров, предлагаемая драйверами графического процессора. Для этого у вас есть Shadowplay и ReLive для Nvidia и AMD соответственно. Среди обеих функций Shadowplay имеет преимущество, поскольку он может лучше записывать и транслировать с поддержкой более высоких битрейтов. Кроме того, они оба могут быть одинаковыми.

Итак, какой из них лучше?

Никто. Да, потому что в конце концов, все зависит от ваших требований и бюджетов. В этом посте, Nvidia против AMD, мы выяснили, что они обе являются отличными графическими картами с некоторыми удивительными функциями. Итак, суть в том, что AMD может быть хорошим вариантом для пользователей с ограниченным бюджетом, тогда как Nvidia — это графическая карта для профессиональных пользователей. Теперь вопрос в том, какой пользователь вы?

Intel vs Nvidia: сравниваем кодирование на графических ускорителях

Транскодирование видео — очень ресурсоемкая задача. Иногда выполнять её за счет ЦП довольно дорого, и, чтобы сэкономить ресурсы, используют графические ускорители. Особенно это актуально в ОТТ вещании, когда на один канал приходится множество профилей.

В этой статье мы рассмотрим основные преимущества и недостатки этих решений на примере технологии QuickSync от Intel и NVENC от Nvidia. Интересно, что формально являясь конкурентами в сфере кодирования, обе компании развиваются параллельно и даже сотрудничают в производстве новых чипов.

Для начала определимся с графикой, которую будем сравнивать. Рассматривать будем только стабильные решения для работы 24/7: в телевещании иначе нельзя. У Intel все просто: возьмем последнее поколение Xeon процессоров Coffee Lake со встроенной графикой Intel® UHD Graphics P630, процессор Intel® Xeon® E-2246G. У Nvidia же с выбором видеокарты для транскодирования все немного сложнее. Мы выбрали Quadro RTX 4000 (8GB) — это серверный аналог GeForce RTX 2070 Super (8GB). В отличие от RTX, она не имеет официальных ограничений в одновременной обработке больше 3 потоков. Это ограничение можно снять, установив созданный умельцами патч, но, как мы уже отметили, будем рассматривать только проверенные и официальные решения. Более ранние версии видеокарт отмели сразу: они проигрывают при работе с HEVC, так как не имеют возможности кодирования B-кадров.

Теперь подберем платформы с выбранными графическими решениями.

ЦПIntel® Xeon® E-2246GIntel® Xeon® E-2224
ВидеокартаВстроенная графика Intel® UHD Graphics P630Quadro RTX 4000 (8GB)
ОЗУ2х8 Гб (важно наличие двухканального режима памяти)16 Гб
Жесткий дискHDD или SSD от 128 ГбHDD или SSD от 128 Гб
Стоимостьу поставщика около $1500у поставщика около $3000

Максимальное количество транскодируемых каналов

Итак, перейдем к цифрам. Проведем нагрузочный тест на максимально возможное количество транскодируемых каналов (режим fastest) на одном сервере.

Транскодирование AVC FHD 10 Мбит — AVC FHD 8 Мбит 30 к/сТранскодирование AVC FHD 10 Мбит — HEVC FHD 8 Мбит 30 к/с
IntelДо 12 каналовДо 13 каналов
NvidiaДо 24 каналовДо 14 каналов

В этом сравнении Nvidia в два раза производительнее Intel при AVC транскодировании и практически не уступает в кодировании HEVC.

Цена за 1 канал с учетом затрат на сервер

Теперь мы знаем максимально возможное количество каналов FHD (1920*1080) разрешения на один сервер со встроенной графикой Intel и видеокартой Nvidia, а значит, сможем вычислить цену за 1 канал FHD.

Цена за один транскодируемый AVC каналЦена за один транскодируемый HEVC канал
Intel$ 125$ 115
Nvidia$ 125$ 214

Получается, что для AVC по цене разницы нет. В случае c HEVC Nvidia гораздо дороже по цене за канал на платформу, если рассчитывать максимальное количество каналов (то есть использовать самые быстрые алгоритмы кодирования, жертвуя качеством).

На этом моменте прервем вычисления и перейдем к вопросу о качестве, так как гораздо честнее будет сравнить одинаково приемлемое качество, а не получаемое в быстрых режимах.

Качество выходного потока по сравнению с исходным

Рассмотрим еще один немаловажный вопрос — качество сжатия видео. Ведь нет никакого смысла в количестве каналов, если их невозможно смотреть.

Ниже представлен график сравнения качества по метрике PSNR: Intel AVC с исходным потоком (синяя линия) / Nvidia AVC с исходным потоком (красная линия).

PSNR_AVC

Исходя из графика видим, что качество получаемых потоков близкое по значению PSNR. Давайте сравним с помощью VMAF метрики.

VMAF_AVC

В следующем графике рассмотрим сравнение Intel HEVC с исходным потоком (синяя линия) / Nvidia HEVC с исходным потоком (красная линия).

PSNR_HEVC1

По графику видим, что наше сравнение было не совсем корректным, так как максимальное количество кодируемых каналов Nvidia =14, и их качество почти на 2 dB выше чем, 13 каналов на Intel.

Поэтому мы провели еще несколько изменений, и при максимально возможном качестве на Nvidia и на Intel в режиме GAcc (GPU Accelerated — когда кодирование происходит не только на графике, но подключается и ЦП) получили следующий результат. Intel HEVC GAcc с исходным потоком (синяя линия) / Nvidia HEVC с исходным потоком (красная линия):

PSNR_HEVC2

Качество кодирования практически совпало, но производительность обеих систем упала в разы. Теперь Nvidia кодировала всего 4 канала FHD HEVC, а Intel всего 2.

Пересчитаем цену за канал исходя из новых данных:

  • $1500/2 = $750 за один транскодируемый HEVC канал на Intel;
  • $3000/4 = $750 за один транскодируемый HEVC канал на Nvidia.

И, собственно, мы получили то же соотношение по цене за канал, что и в ситуации с AVC.

Энергопотребление при равной нагрузке

Рассмотрим еще один важный момент при обслуживании рабочей системы: это потребляемая мощность платформы. Из наших тестов при максимальной нагрузке платформ транскодированием мы получили следующие значения.

  • Потребление платформы с Nvidia: около 200 Вт.
  • Потребление платформы с Intel: около 75 Вт. Поскольку на Intel каналов в 2 раза меньше, значение умножим на 2 — итого около 150 Вт.

Получается, что при равно выполняемой работе платформа с Nvidia потребляет на 50 Вт больше.

Занимаемое место в серверной стойке

При больших объемах транскодируемых каналов, часто возникает вопрос размещения серверов.

Для Intel предусмотрены специальные платформы blade-сервер, где в одном 3U сервере умещается от 8 до 14 лезвий (полноценных серверов, измененного форм-фактора). В одной 3U платформе можно транскодировать до 168 FHD AVC каналов. Если же использовать не blade-сервер, а обычный rack-сервер, то на такое количество каналов понадобится высота в 14U.

Для Nvidia в этом плане немного сложнее: сами карты занимают дополнительное место в платформе. Можно размещать по 1 карте в 1U сервер, тогда занимаемое место на 168 FHD AVC каналов будет составлять 7U. Можно на одной платформе разместить несколько видеокарт, что позволяет сэкономить на цене за платформы, но выиграть место вряд ли получится: чтобы разместить 2–3 карты, потребуется платформа 3, а то и 4U.

Решение специфических задач

Помимо транскодирования видео, существуют такие задачи, как декодирование видео для визуального мониторинга и кодирование с карты захвата SDI/NDI. В таких случаях решение Intel подходит лучше: эти задачи зачастую не объемные, а значит и использовать все ресурсы Nvidia не получится. Даже если нужно кодировать SDI, то скорее всего это будет несколько каналов — сложно найти проект, где требуется кодировать до 24 сигналов. Кроме того, в 1U платформу довольно сложно уместить SDI карту захвата PCI и видео карту PCI, нужно либо выбирать платформу с другой высотой, либо подбирать платформу с достаточным местом для двух карт, что встречается довольно редко.

Имеется и техническое ограничение. Процесс декодирования менее затратный, чем транскодирование, и в теории на Nvidia можно визуально мониторить больше 24 каналов FHD AVC. На самом деле, количество каналов ограничено до 8, так как невозможно передать больший объем декодированного (несжатого) видео через PCI шину. С Intel же такой проблемы нет, так как графика встроена в процессор.

Справедливости ради стоит отметить, что Nvidia более привлекательна для решения транскодирования контента высокого разрешения UHD, поскольку на одной карте можно развернуть многопрофильное транскодирование. Intel же не может транскодировать UHD контент в несколько профилей на одном графическом ядре, и приходится включать систему распределения потока между серверами — такое решение называется распределенным транскодированием.

Выводы

После сравнения частного кейса можно выделить основные преимущества обоих решений.

  • Занимает меньше серверной высоты за счет компактности blade-серверов
  • Меньше энергопотребление
  • Оптимально подходит для декодирования и кодирования видео
  • Более высокоплотное кодирование на 1 графическое ядро
  • Можно сэкономить бюджет, если подобрать соответствующую видеокарту и разместить нескольких видеокарт в платформе

Итак, сравнив графические решения по всем интересующим нас параметрам, можно сделать вывод, что решения близкие по конкурентным характеристикам и сложно однозначно выделить фаворита.

Решающим фактором при выборе аппаратного комплекса на транскодирование может стать поставщик программного обеспечения. Для выбора важно, как реализовано использование инструментов, предлагаемых компаниями Intel/Nvidia, какие дополнительные функции сможет выполнять программно-аппаратный комплекс. Играют роль и такие моменты, как цена за ПАК, функционал ПО, гарантия, успешные проекты, возможность доработки под конкретную задачу, возможность обеспечения SLA, компетенции сопровождающих инженеров и т. д. Например, зачастую ПАК с Nvidia включает в себя не программную реализацию инструментов, предоставленную Nvidia, а встроенный в ПО тестовый образец или же открытая реализация. С одной стороны, это неплохо; с другой стороны open-source проект несет за собой свои минусы, например, невозможно добавить функционал или исправить выявленный баг, поскольку техническая поддержка у таких реализаций отсутствует.

Запросить демоверсию Elecard CodecWorks с Intel QuickSync and NVIDIA GPU acceleration.

blinovАвтор

Вадим Блинов

Менеджер продукта Elecard CodecWorks c 2016 года. Опыт работы в сфере видеокодирования более 4 лет.

Источник https://markakachestva.ru/sravneniya/6122-amd-radeon-ili-nvidia-geforce-sravnenie-luchshih-igrovyh-videokart-2021-goda.html

Источник https://monsterpc.ru/apparatnoe-obespechenie-pk/kakaja-videokarta-luchshe-amd-ili-nvidia-sravnenie

Источник https://www.elecard.com/ru/page/article_intel_vs_nvidia

Источник

Leave a Comment

Ваш адрес email не будет опубликован.