Сравнительная таблица видеокарт | ||
nVidia | AMD | Intel |
Дискретная: GeForce GTX Titan Z | Дискретная: Radeon R9 295X2 | |
Дискретная: GeForce GTX 690, GeForce GTX Titan X | Radeon HD 7990 | |
Дискретная: GeForce GTX 780 Ti, 980, Titan Black | ||
Дискретная: GeForce GTX 780, 970, GeForce GTX Titan | Дискретная: Radeon R9 290, Radeon R9 290X | |
Дискретная: GTX 590, GTX 680, GeForce GTX 770 Go (мобильная): 980M | Дискретная: HD 6990, Radeon HD 7970 GHz Edition, Radeon R9 280X | |
Дискретная: GTX 580, GeForce GTX 670, GeForce GTX 960 Go (мобильная): 970M | Дискретная: HD 5970, Radeon HD 7870 LE (XT), Radeon HD 7950, Radeon R9 280, 285 | |
Дискретная: GTX 660 Ti, GeForce GTX 760 Go (мобильная): 880M | Дискретная: Radeon HD 7870, Radeon R9 270, Radeon R9 270X | |
Дискретная: GTX 295, 480, 570, GeForce GTX 660 Go (мобильная): 680M, 780M | Дискретная: HD 4870 X2, 6970, Radeon HD 7850, Radeon R7 265 Мобильная: 7970M | |
Дискретные: GTX 470, 560 Ti, 560 Ti 448 Core, GeForce 650 Ti Boost, GeForce GTX 750 Ti | Дискретная: HD 4850 X2, 5870, 6950, Radeon R7 260X Мобильная: 7950M | |
Дискретная: GTX 560, GeForce GTX 650 Ti, GeForce GTX 750 Go (mobile): 580M, 675M | Дискретная: HD 5850, 6870, 6930, Radeon HD 7790, Mobility: 6990M | |
Дискретная: 9800 GX2, 285, 460 256 бит, 465 | Дискретная: HD 6850, Radeon HD 7770, Radeon R7 260 Mobility: 6900M | |
Дискретная: GTX 260, 275, 280, 460 192 бит, 460 SE, 550 Ti, 560 SE, 650, GT 740 GDDR5 Go (mobile): 570M, 670M | Дискретная: HD 4870, 5770, 4890, 5830, 6770, 6790, 7750 (GDDR5), R7 250 (GDDR5) Mobility: HD 5870, 6800M | |
Дискретная: 8800 Ultra, 9800 GTX, 9800 GTX+, GTS 250, GTS 450 Go (mobile): 560M, 660M | Дискретная: HD 3870 X2, 4850, 5750, 6750, 7750 (DDR3), R7 250 (DDR3) Mobility: HD 4850, 5850, 7870M | |
Дискретная: 8800 GTX, 8800 GTS 512 Mбайт, GT 545 (GDDR5), GT 730 64-bit GDDR5 Go (mobile): GTX 280M, 285M, 555M (GDDR5) | Дискретная: HD 4770 Mobility: HD 4860, 7770M, 7850M | |
Дискретная: 8800 GT 512 Mбайт, 9800 GT, GT 545 (DDR3), GeForce GTX 640 (DDR3), GT 740 DDR3 Go (mobile): 9800M GTX, GTX 260M (112), GTS 360M (GDDR5), 555M (DDR3) | Дискретная: HD 4830, HD 5670, Radeon HD 6670 (GDDR5), Radeon HD 7730 (GDDR5) Mobility: HD 5770, HD 5750, 6600M/6700M (GDDR5), 7750M | |
Дискретная: 8800 GTS 640 Mбайт, 9600 GT, GT 240 (GDDR5) Go (mobile): 9800M GTS, GTX 160M | Дискретная: HD 2900 XT, HD 3870, HD 5570 (GDDR5), Radeon HD 6570 (GDDR5) Mobility: HD 6500M (GDDR5), 6600M/6700M (DDR3), 7730M | |
Дискретная: 8800 GS, 9600 GSO, GT 240 (DDR3) Go (mobile): GTX 260M (96), GTS 150M, GTS 360M (DDR3) | Дискретная: HD 3850 512 Mбайт, HD 4670, HD 5570 (DDR3), Radeon HD 6570 (DDR3), Radeon HD 6670 (DDR3), HD 7730 (DDR3), R7 240 Mobility: HD 3870, HD 5730, HD 5650, HD 6500M (DDR3) | |
Дискретная: 8800 GT 256 Mбайт, 8800 GTS 320 Mбайт, GT 440 GDDR5, GT 630 GDDR5, GT 730 128-bit GDDR5 Go (mobile): 8800M | Дискретная: HD 2900 PRO, HD 3850 256 Mбайт, 5550 (GDDR5) Mobility: HD 3850 | |
Дискретная: 7950 GX2, GT 440 DDR3, GT 630 DDR3, GT 730 128-bit DDR3 | Дискретная: X1950 XTX, HD 4650 (DDR3), 5550 (DDR3) Integrated: HD 7660D | |
Дискретная: 7800 GTX 512, 7900 GTO, 7900 GTX, GT 430, GT 530 Go (mobile): 550M | Дискретная: X1900 XT, X1950 XT, X1900 XTX | |
Дискретная: 7800 GTX, 7900 GT, 7950 G, GT 220 (DDR3) Go (mobile): 525M, 540M | Дискретная: X1800 XT, X1900 AIW, X1900 GT, X1950 PRO, HD 2900 GT, HD 5550 (DDR2) Integrated: HD 7560D | |
Дискретная: 7800 GT, 7900 GS, 8600 GTS, 9500 GT (GDDR3), GT 220 (DDR2) Go (mobile): 7950 GTX | Дискретная: X1800 XL, X1950 GT, HD 4650 (DDR2), HD 6450 Mobility: X1800 XT, HD 4650, HD 5165, 6400M Integrated: 6620G, 6550D, 7540D | |
Дискретная: 6800 Ultra, 7600 GT, 7800 GS, 8600 GS, 8600 GT (GDDR3), 9500 GT (DDR2) Go (mobile): 7800 GTX, 7900 GTX | Дискретная: X800 XT (& PE), X850 XT (& PE), X1650 XT, X1800 GTO, HD 2600 XT, HD 3650 (DDR3), HD 3670 Mobility: X1900, 3670 Integrated: 6520G, 6530D, 7480D | Интегрированная: Intel HD Graphics 4000 |
Дискретная: 6800 GT, 6800 GS (PCIe), 8600 GT (DDR2), GT 520 Go (mobile): 7800, Go 7900 GS, 520M, 520MX | Дискретная: X800 XL, X800 GTO2/GTO16, HD 2600 PRO, HD 3650 (DDR2) Mobility: X800 XT, HD 2600 XT, 3650 Integrated: 6410D, 6480G | |
Дискретная: 6800 GS (AGP) Go (mobile): 6800 Ultra, 7600 GT, 8600M GT, 8700M GT, 410M | Дискретная: X800 GTO 256 Mбайт, X800 PRO, X850 PRO, X1650 GT Mobility: HD 2600 Integrated: 6370D, 6380G | |
Дискретная: 6800, 7300 GT GDDR3, 7600 GS, 8600M GS Go (mobile): 6800, 7700 | Дискретная: X800, X800 GTO 128 Mбайт, X1600 XT, X1650 PRO Mobility: X1800, HD 5145, HD 5470 (GDDR5) | |
Дискретная: 6600 GT, 6800LE, 6800 XT, 7300 GT (DDR2), 8500 GT, 9400 GT Go (mobile): 7600 (128-bit) | Дискретная: 9800 XT, X700 PRO, X800 GT, X800 SE, X1300 XT, X1600 PRO, HD 2400 XT, HD 4350, HD 4550, HD 5450 Mobility: X800, 3470, HD 5470 (DDR3), HD 5450, HD 5430, 6300M Integrated: HD 6310, HD 6320 | Intel HD Graphics 3000 |
Дискретная: FX 5900, FX 5900 Ultra, FX 5950 Ultra, 6600 (128-bit) Go (mobile): 6800 (128-bit) Integrated: 9300, 9400 | Дискретная: 9700, 9700 PRO, 9800, 9800 PRO, X700, X1300 PRO, X1550, HD 2400 PRO Mobility: X1450, X1600, X1700, 2400 XT, X2500, 3450 Integrated: HD 3200, HD 3300, HD 4200, HD 4250, HD 4290, HD 6250, HD 6290 | |
Дискретная: FX 5800 Ultra, FX 5900 XT Go (mobile): 6600, Go 7600 (64-bit) | Дискретная: 9500 PRO, 9600 XT, 9800 PRO (128-bit), X600 XT, X1050 (128-bit) Mobility: 9800, X700, X1350, X1400, X2300, HD 2400 | Intel HD Graphics (Core i5-6×1), 2000 |
Дискретная: 4 Ti 4600, 4 Ti 4800, FX 5700 Ultra, 6200, 8300, 8400 G, G 210, G 310 Go (mobile): 315M | Дискретная: 9600 PRO, 9800 LE, X600 PRO, HD 2300 Mobility: 9700 (128-bit), X600, X1300 Integrated: Xpress 1250 | Intel HD Graphics (Core i3 5×0, Core i5-6×0) |
Дискретная: 4 Ti4200, 4 Ti4400, 4 Ti4800 SE, FX 5600 Ultra, FX 5700, 6600 (64-bit), 7300 GS, 8400M GS, 9300M G, 9300M GS | Дискретная: 9500, 9550, 9600, X300, X1050 (64-bit) Mobility: 9600 | Intel HD Graphics (Pentium G) |
Дискретная: 3 Ti500, FX 5200 Ultra, FX 5600, FX 5700 LE, 6200 TC, 6600 LE, 7200 GS, 7300 LE Go (mobile): 5700, 8200M, 9200M GS, 9100 Integrated: 8200, 8300 | Дискретная: 8500, 9100, 9000 PRO, 9600 LE, X300 SE, X1150 Mobility 9700 (64-bit) | GMA X4500 |
Дискретная: 3, 3 Ti200, FX 5200 (128-bit), FX 5500 Go (mobile): 5600, 6200, 6400, 7200, 7300, 7400 (64-bit) | Дискретная: 9000, 9200, 9250 Mobility: 9600 (64-bit), X300 | |
Дискретная: FX 5200 (64 bit) Go (mobile): 7200, 7400 (32-bit) Integrated: 6100, 6150, 7025, 7050 | Дискретная: 9200 SE Integrated: Xpress 200M, Xpress 1000, Xpress 1150 | GMA X3000, X3100, X3500 |
Дискретная: 2 GTS, 4 MX 440, 2 Ultra, 2 Ti, 2 Ti 200 | Дискретная: 7500 | GMA 3000, 3100 |
Дискретная: 256, 2 MX 200, 4 MX 420, 2 MX 400 | Дискретная: SDR, LE, DDR, 7000, 7200 | GMA 500, 900, 950 |
Дискретная: nVidia TNT | Дискретная: Rage 128 | Intel 740 |
|
18.09.2013
Получайте новости с indpc на почту |
Иерархия видеокарт AMD и Nvidia: сравнительная таблица |
Сколько майнят видеокарты — сравнительная таблица данных по mh/s | Блог А. Кремера
Недавно на волне общего ажиотажа задумался о майнинге эфира. Что делать думал я, когда в магазинах почти нет видеокарт и оставался только неликвид, начал смотреть сколько какая видеокарта выдает мегахэйша и сколько может намайнить. Приважу вам таблицу, доблестно нарытую в RUнете. Если вы хотите заняться майнингом и не знаете сколько mh/s можно выжать из видюхи и сколько можно заработать на видеокарте — эта статья для вас.
Заводим кошелёк для криптовалют
Я ранее писал об этом, поэтому детально останавливаться не буду. Скажу одно, вам следует завести его, можно на https://ru.cryptonator.com или https://exmo.me.
Купить эфир на бирже
- https://x-pay.cc
- https://xchange.cash
- https://exmo.me
- https://100monet.pro
Сколько можно заработать Эфира (
Ethash) на видеокартахОборудование | Ethash (MH) | Руб/мес | Equihash (H) | NeoScrypt (kH) | Pascal (MH) | X11Ghost (MH) |
---|---|---|---|---|---|---|
AMD Radeon R9 280X | 14.5 220 W | 4199 | 290 230 W | 490 250 W | 580 250 W | 2.9 200 W |
AMD Radeon R9 380 | 20 145 W | 5792 | 200 130 W | 350 145 W | 480 145 W | 2.5 120 W |
AMD Radeon RX 470 | 26 120 W | 7530 | 250 110 W | 550 160 W | 560 120 W | 5.3 125 W |
AMD Radeon RX 480 | 29 135 W | 8399 | 290 120 W | 650 200 W | 700 135 W | 6.7 140 W |
NVIDIA Geforce GTX 750 Ti | 0.5 45 W | 755 | 75 55 W | 220 75 W | 200 55 W | 2 55 W |
NVIDIA Geforce GTX 1070 | 28.5 105 W | 8254 | 410 120 W | 1050 155 W | 900 120 W | 10.5 120 W |
AMD Radeon R9 Fury Nano | 26.2 180 W | 7588 | 455 200 W | 500 160 W | 950 270 W | 4.5 140 W |
AMD Radeon R9 290X | 25.75 350 W | 7457 | 350 350 W | 750 350 W | 3.8 | |
NVIDIA Geforce GTX 1080 | 27.63 180 W | 8002 | 470 180 W | 1300 180 W | 16.2 | |
AMD Radeon RX 570 | 24 160 W | 6951 | 312 160 W | 730 160 W | 7.4 160 W | |
AMD Radeon RX 580 8GB | 26.7 190 W | 7732 | 310 190 W | 860 190 W | 8.5 190 W | |
AMD Radeon RX 580 4GB | 22.4 150 W | 6487 | 280 150 W | 800 150 W | 8.2 150 W | |
NVIDIA Geforce GTX 1080 Ti | 35 250 W | 10100 | 630 250 W | 1760 250 W | 16.2 250 W | |
NVIDIA Geforce GTX 1050 | 10 | 2900 | 144 60 W | 290 60 W | 280 60 W | 4 60 W |
NVIDIA Geforce GTX 1050 Ti | 12.6 70 W | 3657 | 157 70 W | 360 70 W | 360 70 W | 4.5 70 W |
NVIDIA Geforce GTX 1060 6GB | 20.2 100 W | 5862 | 282 100 W | 700 100 W | 660 100 W | 8.6 100 W |
AMD Radeon RX 460 4GB | 10.7 80 W | 3100 | 110 80 W | 300 80 W | 2.8 80 W | |
AMD Radeon R9 290X | 26 350 W | 7546 | 350 350 W | 750 350 W | 3.8 350 W | |
NVIDIA Geforce GTX 960 | 142 100 W | 390 100 W | 360 100 W | 4.8 100 W | ||
NVIDIA Geforce GTX 970 | 22.2 150 W | 6444 | 291 150 W | 680 150 W | 570 150 W | 7.7 150 W |
NVIDIA Geforce GTX 980 | 21 220 W | 6095 | 313 220 W | 740 220 W | 650 220 W | 8.8 220 W |
NVIDIA Geforce GTX 980 Ti | 22 250 W | 6385 | 460 250 W | 1000 250 W | 980 250 W | 13.3 250 W |
AMD Radeon R9 380 | 18 220 W | 5224 | 169 220 W | 270 220 W | 550 220 W | 2.5 220 W |
AMD Radeon R9 380X | 21 250 W | 6095 | 175 250 W | 600 250 W | 2.8 250 W | |
AMD Radeon R9 390 | 30 300 W | 8707 | 380 300 W | 750 300 W | 3.4 300 W |
Как вы видите, самая доходная карта NVIDIA Geforce GTX 1080 Ti, самая невыгодная для майнинга эфира NVIDIA Geforce GTX 750 Ti. Удачи вам в майнинге Эфириума.
Я к слову, та и не купил видеокарту (не успел) и решил заняться «дедовским методом» — скупой валюты и облачным майнингом(, но об этом в следующем посте.
Re-Help — Сравнение видеокарт
Введение:
Очень часто при выборе видеокарты мы задаемся вопросом: «А какая из них лучше?». Ведь нынешний компьютерный рынок просто пестрит различными предложениями. Данная статья предназначена для помощи обычному человеку, не желающему читать многочисленные обзоры или не имеющему на это время, определить лучшую видеокарту за свои деньги.
Прежде чем начать изучать таблицу, учтите следующие нюансы:
- Сравнение видеокарт GeForce и Radeon между собой — приблизительное. В одних играх быстрее будет GeForce, в других — Radeon.
- Отличие в скорости работы вышестоящей видеокарты от нижестоящей , можно узнать из тестов многочисленных интернет ресурсов .
- Видеокарты в таблице представлены в порядке снижения производительности сверху вниз.
- Здесь представлены только эталонные видеокарты, т.е. имеющие характеристики эталонов видеокарт AMD(ATI) и Nvidia.
- Не следует забывать, что на компьютерном рынке сейчас есть немало видеокарт, предварительно разогнанных производителями.Они имеют суффиксы Sonic, OC, OC2, Extreme, XXX и т.д. и обладают более высокой производительностью. Если вы не собираетесь разгонять видеокарту самостоятельно, то следует рассмотреть и «заводской» вариант.
- Также при выборе видеокарт конкретного производителя следует обратить внимание на установленную систему охлаждения (фотографию и обзор можно найти, сделав запрос в поисковике по полному наименованию видеокарты).
- Все видеокарты имеют интерфейс PCI-Express. AGP-варианты могут незначительно отличаться по характеристикам, но в рамках данной статьи их не рассматриваем. Так же здесь нет мобильных видеочипов.
- Красным цветом выделены видеокарты снятые с производства на момент написания статьи.
- При выборе видеокарты также следует помнить и об объеме видеопамяти. В таблице этот факт почти не учитывается. Конечно, чем больше — тем лучше, но в любом случае предпочтительнее взять карту с более мощным чипом, чем с бoльшим объёмом памяти..
Сравнительная таблица
Ну а теперь, собственно, предлагаю вашему вниманию саму таблицу
GeForce | Radeon |
GTX 690 | HD 7990 — 7970 x2 |
GTX Titan | R9 290X |
GTX 590 — GTX 780 | HD 6990 > R9 290 |
GTX 680 — GTX 770 | HD 5970 > R9 280X |
GTX 670 | HD 7970 |
GTX 580 — GTX 760 | HD 7950 |
GTX 295 <> GTX 660 Ti | HD 7870 > R9 270X |
GTX 570 <> GTX 660 | HD 6970 |
GTX 480 | HD 7850 |
GTX 750 Ti | HD 6950 |
GTX 560 Ti | HD 5870 > HD 6930 |
GTX 470 | HD 6870 > R7 260X |
GTX 750 | HD 4870 X2 |
HD 5850 > HD 7790 | |
GTX 285 | |
GTX 460 1Gb —> GTX 650Ti | R7 260 |
GTX 465 | HD 6850 > HD 7770 |
GTX 280 | |
GTX 275 | HD 5830 |
GTX 460 768mb | |
9800 GX2 | HD 4890 |
GTX 260 (216sp) | HD 6790 |
HD 4850 X2 | |
GTX 260 (192sp) | HD 5770 > HD 7750 |
GTX 550 Ti <> GTX 650 | HD 4870 > —> HD 6770 |
GTS 450 | |
8800 Ultra | HD 3870 X2 |
GTS 250 | HD 5750 |
9800 GTX/GTX+ | HD 4850 |
8800 GTX | HD 4770 |
8800 GTS 512Mb > GT 640 > GT 730 | HD 6670 |
GTS 240 | HD 4830 |
9800 GT | HD 5670 |
8800 GT —> GT 440 —> GT 630 | HD 4730 |
GT 240 GDDR5 | |
9600 GTS | |
9600 GT —> GT 430 —> GT 620 | HD 3870 |
9600 GSO 768Mb | HD 5570 |
8800 GS 768Mb | HD 4670 |
8800 GTS 640Mb | HD 3850 X2 |
9600 GSO 384Mb | HD 5550 |
8800 GS 384Mb | HD 2900 XT |
8800 GTS 320Mb | HD 3850 > HD 6450 |
GT 220 > GT 520 | HD 2900 PRO |
HD 3690 | |
HD 2900 GT | |
7950 GX2 | X1950 XTX |
HD 4650 | |
X1950 XT | |
7900 GTX | X1900 XTX |
7950 GT | X1900 XT |
8600 GTS | X1950 PRO |
9500 GT | HD 3650 |
7900 GT | X1950 GT |
7800 GTX 512Mb | X1900GT |
7900GS | X1800XT |
7800 GTX 256Mb | HD 3750 |
7800 GT | X1800XL (GTO2) |
7800 GS | X1800 GTO |
8600GT | HD 2600 XT |
6800 Ultra | X850 XT (и PE) |
6800 GT | X800 XT (и PE) |
X850 PRO | |
6800 GS | X800 XL (GTO) |
X1650 XT | |
7600 GT | HD 4550 |
HD 5450 | |
HD 2600 PRO | |
G 210 | HD 3730 |
9400 GT | X1650 PRO (X1600 XT) |
7600 GS | X1600 PRO |
6800 | X800 |
6600 GT | X800 GT |
6800 LE (XT) | X700 XT |
HD 4350 | |
HD 3470 | |
X1300 XT | |
8500 GT | HD 2400 XT |
7300 GT | HD 3450 |
HD 2400 PRO | |
X700 | |
6600 | X1550 (X1300 PRO) |
8400 GS | |
X600 XT | |
6600 LE | X550 |
7300 GS | X1300 |
7300 LE | |
6200 | X1050 |
7100 GS | |
7200 GS | X300 (SE) |
Удачи и будьте внимательны при выборе видеокарты!
Источник: www.oszone.net
Графические карты ATI Radeon
1 — в AGP-вариантах используется микросхема моста ATI RIALTO. 2 — CE = CrossFire Edition. 3 — на самом деле — тот же X1300 Pro, только с новым названием. 4 — на самом деле — тот же X600 Pro, только с новым названием. 5 — используется микросхема моста PCI-E 16x v1.0a PEX8532 от PLX Technology. 6 — производится только Sapphire Technology на основе собственного дизайна. |
GTX 1060 или GTX 1050 TI?
Какую дискретку лучше прикупить, чтоб и не потратиться особо, но и от комфортной игры не отказываться? Решить эту задачу поможет статья. В ней — сравнение двух самых популярных игровых карточек — GTX 1060 и GTX 1050 TI. Описание ключевых особенностей, таблица с параметрами и примеры достойных вариантов помогут с выбором самого подходящего.
NVidia GeForce GTX 1060 3gb
Достойная игровая карточка, способная достойно занять место в сборке бюджетной или среднеценовой категории. 3 Гб хватает для большинства серьезных современных игр. Особенно если она работает в связке с мощными комплектующими, вроде ЦПУ Ryzen 5/7, Intel седьмого, восьмого поколения и 16 Гб ОЗУ.
Читайте также: 3 лучших производителя видеокарт NVidia GeForce GTX 1060 + 5 крутых моделей
С перечисленными выше компонентами видеокарточка, например, GTX 1060 3GB GDDR5 Aero Mini, в игре War Thunder обеспечивает в среднем 124 FPS в режиме «Кино» при FHD разрешении. С The Evil Within 2 при высоких настройках также не возникает дискомфорта. Tom Clancy’s Rainbow Six: Siege при ультрапресете графики тоже идет «на ура».
Как альтернативу можно выбрать и «снежинку» от ASUS. В сравнении с предыдущим примером, у нее не менее классные характеристики. Охлаждение у видеоадаптера — превосходное: благодаря запатентованной конструкции
Wing-Blade достигается высокая эффективность распределения воздуха при том, что девайс работает достаточно тихо.
Было бы нечестно оставить без внимания одного из лидеров на рынке видеокарт — GIGABYTE, чьи графические процессоры считаются одними из лучших в плане доступности и долговечности. Подтверждение тому — модель Windforce OC.
Обзор основных особенностей:
- Мощная система охлаждения и никакого лишнего шума даже при серьезных нагрузках.
- Возможность разгона: плюс к производительности без особых усилий за счет фирменного софта.
- Возможность онлайн-трансляций игрового процесса.
- Поддержка VR — геймерам гарантировано полное погружение в атмосферу.
В тему: Как собрать игровой компьютер, какие комплектующие купить: 3 варианта на выбор
NVidia GeForce GTX 1050 TI
Несмотря на популярность предыдущей серии, эта видеокарточка все еще актуальна. GPU демонстрирует впечатляющие результаты в современных играх при весьма демократичном ценнике, что подтверждают отзывы.
Почему рекомендуют купить:
- Баланс цены и привлекательности параметров.
- Стабильная работа при многочасовой нагрузке.
- Приличный объем памяти.
- Большинство версий поддерживают возможность разгона и оснащаются специальным ПО для этой цели.
- Отсутствие излишнего шума и перегрева при разгоне.
- Комфортное ведение игровых стримов.
Смотрите также: 3 лучших производителя и 5 видеокарт NVidia GeForce GTX 1050 TI на 4 GB
Учитывая возможности графического процессора и его стоимость, к минусам можно отнести разве что отсутствие поддержки VR технологий. В этом — одно из существенных отличий такой модели от той видеокарты, что описывалась в предыдущем разделе. Если же пользователю без разницы, есть VR или, то GPU 1050TI можно смело советовать выбрать для современных игр.
Одним из ярких представителей линейки является модель от MSI, в которой используются компоненты, имеющие сертификат Military Class 4 — гарантия надежности. Готовность к серьезным и длительным нагрузкам при разгоне и стабильная работа — вот залог комфортного гейминга. С разгоном девайса никаких трудностей не возникает даже у неопытного пользователя. Для этих целей предусмотрено фирменное ПО, которое входит в комплект поставки. Что касается дизайна, то он выдержан в классическом для продуктов компании стиле. Однако в корпусе с прозрачной стенкой светящийся логотип и иллюминация декоративных вставок, которую можно настроить, смотрятся весьма эффектно.
Рассматривая линейку, нельзя обойти стороной асусовскую «рабочую лошадку» — DDR5 Gaming Strix, чьи характеристики весьма привлекательны. Она практически бесшумна, остается достаточно «холодной» почти в любых ситуациях и готова к разгону. Любителям компактных сборок можно порекомендовать вариант Low Profile. Компактный форм-фактор никак не повлиял на мощь девайса.
Что касается возможностей GTX 1050, то результаты тестов в хитовых играх радуют. К примеру, в OverWatch, используя эпические настройки, можно получить в среднем 68 FPS при разрешении FHD и 63 кадра в секунду при WQHD. В Tom Clancy’s Rainbow Six: Siege при FHD разрешении — в районе 80 кадров, правда, с периодическими просадками до 50, но при этом все вполне играбельно. С Watch Dogs 2 устройство тоже справится. Не на ультранастройках, конечно, но на 50 FPS рассчитывать можно, что для девайсов в этой ценовой категории — вполне достойный результат.
Интересно: Сравнение 2 бюджетных игровых видеокарт — GTX 1050 против GTX 1050 TI
Сравнительная таблица характеристик
Ниже приведена таблица, из которой можно понять, чем отличаются модели видеокарт. Она поможет решить, какой графический процессор способен стать самым лучшим игровым вариантом.
Любопытно: Какая видеокарта лучше — NVidia GeForce GTX 1050 или AMD Radeon RX 560
Обзор главных достоинств и характеристик каждой из приведенных в этой статье видеокарт показал, что любую версию можно смело выбирать для актуальных игр. Но какая из них — самая лучшая, решать пользователю. Если хочется чуть сэкономить, можно посоветовать 1050 TI, а если надо помощнее — 1060.
Сравнительная таблица чипов NVIDIA GeForce (для настольных ПК)
Основные характеристики
Если вы не следите за рынком видеокарт почти ежедневно, вам будет очень сложно понять различия между несколькими различными графическими чипами NVIDIA, доступными сегодня на рынке. Чтобы облегчить знание и понимание различий между этими чипами, мы составили таблицу ниже.
Важно отметить, что начиная с 2007 года и AMD (ATI), и NVIDIA стали указывать частоту памяти своих видеокарт с использованием реальной тактовой частоты.Раньше производители ссылались на часы памяти с удвоенной (или учетверяющей) реальной тактовой частотой, поскольку DDR и другие основанные на ней технологии (DDR2, GDDR3 и т. д.) позволяют микросхеме памяти передавать два блока данных за такт, в то время как память GDDR5 позволяет микросхеме памяти передавать четыре блока данных за такт. Таким образом, видеокарта с микросхемой памяти, работающей на частоте 500 МГц, будет называться имеющей память 1 ГГц. Чтобы сделать нашу таблицу сопоставимой со старыми чипами, мы по-прежнему используем эффективные часы памяти, а не реальные часы памяти.
ГП | Часы† | Турбочасы | Часы памяти | Интерфейс памяти | Пропускная способность памяти | Проц. | DirectX | OpenGL | PCIe |
GeForce4 МХ 420 | 250 МГц | – | 166 МГц | 128-бит | 2.6 ГБ/с | 1 | 7 | 1,2 | АГП 4x |
GeForce4 MX 440 SE | 250 МГц | – | 333 МГц | 64-разрядная версия | 2,6 ГБ/с | 1 | 7 | 1,2 | АГП 4x |
GeForce4 МХ 440 | 270 МГц | – | 400 МГц | 128-бит | 6,4 ГБ/с | 1 | 7 | 1,2 | АГП 4x |
GeForce 4 MX 440 AGP 8x | 275 МГц | – | 512 МГц | 128-бит | 8.1 ГБ/с | 1 | 7 | 1,2 | АГП 8x |
GeForce4 МХ 460 | 300 МГц | – | 550 МГц | 128-бит | 8,8 ГБ/с | 1 | 7 | 1,2 | АГП 4x |
GeForce MX 4000 | 250 МГц | – | * | 32-битная, 64-битная или 128-битная | * | 1 | 7 | 1,2 | АГП 8x |
GeForce4 Ti 4200 | 250 МГц | – | 514 МГц (64 МБ) или 444 МГц (128 МБ) | 128-бит | 8.2 ГБ/с (64 МБ) или 7,1 ГБ/с (128 МБ) | 4 | 8.1 | 1,4 | АГП 4x |
GeForce4 Ti 4200 AGP 8x | 250 МГц | – | 500 МГц | 128-бит | 8 ГБ/с | 4 | 8.1 | 1,4 | АГП 8x |
GeForce PCX 4300 | 275 МГц | – | 512 МГц | 128-бит | 8,2 ГБ/с | 2 | 7 | 1.4 | 1.1 |
GeForce4 Ti 4400 | 275 МГц | – | 550 МГц | 128-бит | 8,8 ГБ/с | 4 | 8.1 | 1,4 | АГП 4x |
GeForce4 Ti 4600 | 300 МГц | – | 650 МГц | 128-бит | 10,4 ГБ/с | 4 | 8.1 | 1,4 | АГП 4x |
GeForce4 Ti 4800 SE | 275 МГц | – | 550 МГц | 128-бит | 8.8 ГБ/с | 4 | 8.1 | 1,4 | АГП 8x |
GeForce4 Ti 4800 | 300 МГц | – | 650 МГц | 128-бит | 10,4 ГБ/с | 4 | 8.1 | 1,4 | АГП 8x |
GeForce FX 5200 | 250 МГц | – | 400 МГц | 64-битная или 128-битная | 3,2 ГБ/с или 6,4 ГБ/с | 4 | 9.0 | 1,5 | АГП 8x |
GeForce FX 5200 SE | 250 МГц | – | 333 МГц | 64-разрядная версия | 2,7 ГБ/с | 4 | 9,0 | 1,5 | АГП 8x |
GeForce FX 5200 Ультра | 350 МГц | – | 650 МГц | 128-бит | 10,4 ГБ/с | 4 | 9,0 | 1,5 | АГП 8x |
GeForce PCX 5300 | 325 МГц | – | 650 МГц | 128-бит | 10.4 ГБ/с | 4 | 9,0 | 1,5 | 1.1 |
GeForce FX 5600 | 325 МГц | – | 550 МГц | 128-бит | 8,8 ГБ/с | 4 | 9,0 | 1,5 | АГП 8x |
GeForce FX 5600 SE | 250 МГц | – | 550 МГц | 64-разрядная версия | 4,4 ГБ/с | 4 | 9,0 | 1,5 | АГП 8x |
GeForce FX 5500 | 270 МГц | – | 400 МГц | 64-битная или 128-битная | 3.2 ГБ/с или 6,4 ГБ/с | 4 | 9,0 | 1,5 | АГП 8x |
GeForce FX 5600 Ультра | 500 МГц | – | 800 МГц | 128-бит | 12,8 ГБ/с | 4 | 9,0 | 1,5 | АГП 8x |
GeForce FX 5700 LE | 250 МГц | – | 400 МГц | 128-бит | 6,4 ГБ/с | 4 | 9.0 | 1,5 | АГП 8x |
GeForce FX 5700 | 425 МГц | – | 600 МГц | 128-бит | 9,6 ГБ/с | 4 | 9,0 | 1,5 | АГП 8x |
GeForce FX 5700 VE | 300 МГц | – | 500 МГц | 128-бит | 8 ГБ/с | 4 | 9,0 | 1,5 | АГП 8x |
GeForce FX 5700 Ультра | 475 МГц | – | 900 МГц | 128-бит | 14.4 ГБ/с | 4 | 9,0 | 1,5 | АГП 8x |
GeForce PCX 5750 | 475 МГц | – | 900 МГц | 128-бит | 14,4 ГБ/с | 4 | 9,0 | 1,5 | 1.1 |
GeForce FX 5800 | 400 МГц | – | 800 МГц | 128-бит | 12,8 ГБ/с | 8 | 9,0 | 1.5 | АГП 8x |
GeForce FX 5800 Ultra | 500 МГц | – | 1 ГГц | 128-бит | 16 ГБ/с | 8 | 9,0 | 1,5 | АГП 8x |
GeForce FX 5900 XT | 390 МГц | – | 680 МГц | 256 бит | 21,7 ГБ/с | 8 | 9,0 | 1,5 | АГП 8x |
GeForce FX 5900 | 400 МГц | – | 850 МГц | 256 бит | 27.2 ГБ/с | 8 | 9,0 | 1,5 | АГП 8x |
GeForce FX 5900 SE | 400 МГц | – | 700 МГц | 256 бит | 22,4 ГБ/с | 8 | 9,0 | 1,5 | АГП 8x |
GeForce FX 5900 ZT | 325 МГц | – | 700 МГц | 256 бит | 22,4 ГБ/с | 8 | 9,0 | 1.5 | АГП 8x |
GeForce ПК 5900 | 350 МГц | – | 500 МГц | 256 бит | 17,6 ГБ/с | 8 | 9,0 | 1,5 | 1.1 |
GeForce FX 5900 Ультра | 450 МГц | – | 850 МГц | 256 бит | 27,2 ГБ/с | 8 | 9,0 | 1,5 | АГП 8x |
GeForce PCX 5950 | 475 МГц | – | 950 МГц | 256 бит | 30.4 ГБ/с | 8 | 9,0 | 1,5 | 1.1 |
GeForce FX 5950 Ультра | 475 МГц | – | 950 МГц | 256 бит | 30,4 ГБ/с | 8 | 9,0 | 1,5 | АГП 8x |
GeForce 6200 | 300 МГц | – | 550 МГц | 128-бит | 8,8 ГБ/с | 4 | 9.0c | 2.1 | АГП 8x или 1,1 |
GeForce 6200 LE | 350 МГц | – | 550 МГц | 64-разрядная версия | 4,4 ГБ/с | 2 | 9.0c | 2.1 | 1.1 |
GeForce 6200 (ТС) | 350 МГц | – | 666 МГц * | 32-битная или 64-битная | 2,66 ГБ/с или 5,32 ГБ/с * | 4 | 9.0c | 2.1 | 1.1 |
GeForce 6500 (ТС) | 400 МГц | – | 666 МГц | 32-битная или 64-битная | 2.66 ГБ/с или 5,32 ГБ/с | 4 | 9.0c | 2.1 | 1.1 |
GeForce 6600 | 300 МГц | – | 550 МГц * | 64-битная или 128-битная | 4,4 ГБ/с или 8,8 ГБ/с * | 8 | 9.0c | 2.1 | АГП 8x или 1,1 |
GeForce 6600 DDR2 | 350 МГц | – | 800 МГц * | 128-бит | 12,8 ГБ/с | 8 | 9.0с | 2.1 | АГП 8x или 1,1 |
GeForce 6600 LE | 300 МГц | – | * | 64-битная или 128-битная | 4 ГБ/с или 8 ГБ/с | 4 | 9.0c | 2.1 | AGP 8x или 1.1 |
GeForce 6600 GT | 500 МГц | – | 1 ГГц | 128-бит | 16 ГБ/с | 8 | 9.0c | 2.1 | 1.1 |
GeForce 6600 GT AGP | 500 МГц | – | 900 МГц | 128-бит | 14,4 ГБ/с | 8 | 9.0c | 2.1 | АГП 8x |
GeForce 6800 LE | 300 МГц | – | 700 МГц | 256 бит | 22,4 ГБ/с | 8 | 9.0c | 2.1 | АГП 8x |
GeForce 6800 XT | 325 МГц | – | 600 МГц | 256 бит | 19.2 ГБ/с | 8 | 9.0c | 2.1 | 1.1 |
GeForce 6800 XT AGP | 325 МГц | – | 700 МГц | 256 бит | 22,4 ГБ/с | 8 | 9.0c | 2.1 | АГП 8x |
GeForce 6800 | 325 МГц | – | 600 МГц | 256 бит | 19,2 ГБ/с | 12 | 9.0c | 2.1 | 1.1 |
GeForce 6800 AGP | 325 МГц | – | 700 МГц | 256 бит | 22,4 ГБ/с | 12 | 9.0c | 2.1 | АГП 8x |
GeForce 6800 GS | 425 МГц | – | 1 ГГц | 256 бит | 32 ГБ/с | 12 | 9.0c | 2.1 | 1.1 |
GeForce 6800 GS AGP | 350 МГц | – | 1 ГГц | 256 бит | 32 ГБ/с | 12 | 9.0с | 2.1 | АГП 8x |
GeForce 6800 GT | 350 МГц | – | 1 ГГц | 256 бит | 32 ГБ/с | 16 | 9.0c | 2.1 | AGP 8x или 1.1 |
GeForce 6800 Ultra | 400 МГц | – | 1,1 ГГц | 256 бит | 35,2 ГБ/с | 16 | 9.0c | 2.1 | AGP 8x или 1.1 |
GeForce 6800 Ultra Extreme | 450 МГц | – | 1,1 ГГц | 256 бит | 35,2 ГБ/с | 16 | 9.0c | 2.1 | AGP 8x или 1.1 |
GeForce 7100 GS (ТС) | 350 МГц | – | 666 МГц * | 64-разрядная версия | 5,32 ГБ/с * | 4 | 9.0c | 2.1 | 1.1 |
GeForce 7200 GS (ТС) | 450 МГц | – | 800 МГц * | 64-разрядная версия | 6.4 ГБ/с * | 4 | 9.0c | 2.1 | 1.1 |
GeForce 7300 SE (ТС) | 225 МГц | – | * | 64-разрядная версия | * | 4 | 9.0c | 2.1 | 1.1 |
GeForce 7300 LE (TC) | 450 МГц | – | 648 МГц * | 64-разрядная версия | 5,2 ГБ/с * | 4 | 9.0c | 2.1 | 1.1 |
GeForce 7300 GS (TC) | 550 МГц | – | 810 МГц * | 64-разрядная версия | 6,5 ГБ/с * | 4 | 9.0c | 2.1 | AGP 8x или 1.1 |
GeForce 7300 GT (TC) | 350 МГц | – | 667 МГц | 128-бит | 10,6 ГБ/с | 8 | 9.0c | 2.1 | AGP 8x или 1.1 |
GeForce 7500 LE OEM | 550 МГц | – | 800 МГц | 64-разрядная версия | 6.4 ГБ/с | 4 | 9.0c | 2.1 | 1.1 |
GeForce 7600 GS | 400 МГц | – | 800 МГц | 128-бит | 12,8 ГБ/с | 12 | 9.0c | 2.1 | AGP 8x или 1.1 |
GeForce 7600 GT | 560 МГц | – | 1,4 ГГц | 128-бит | 22,4 ГБ/с | 12 | 9.0c | 2.1 | AGP 8x или 1.1 |
GeForce 7650 GS OEM | 400 МГц | – | 800 МГц | 128-бит | 12,8 ГБ/с | 12 | 9.0c | 2.1 | 1.1 |
GeForce 7800 GS | 375 МГц | – | 1,2 ГГц | 256 бит | 38,4 ГБ/с | 16 | 9.0c | 2.1 | АГП 8x |
GeForce 7800 GT | 400 МГц | – | 1 ГГц | 256 бит | 32 ГБ/с | 20 | 9.0с | 2.1 | 1.1 |
GeForce 7800 GTX | 430 МГц | – | 1,2 ГГц | 256 бит | 38,4 ГБ/с | 24 | 9.0c | 2.1 | 1.1 |
GeForce 7800 GTX 512 | 550 МГц | – | 1,7 ГГц | 256 бит | 54,4 ГБ/с | 24 | 9.0c | 2.1 | 1.1 |
GeForce 7900 GS | 450 МГц | – | 1.32 ГГц | 256 бит | 42,2 ГБ/с | 20 | 9.0c | 2.1 | AGP 8x или 1.1 |
GeForce 7900 GT | 450 МГц | – | 1,32 ГГц | 256 бит | 42,2 ГБ/с | 24 | 9.0c | 2.1 | 1.1 |
GeForce 7900 GTO | 650 МГц | – | 1,32 ГГц | 256 бит | 42.2 ГБ/с | 24 | 9.0c | 2.1 | 1.1 |
GeForce 7900 GTX | 650 МГц | – | 1,6 ГГц | 256 бит | 51,2 ГБ/с | 24 | 9.0c | 2.1 | 1.1 |
GeForce 7950 GT | 550 МГц | – | 1,4 ГГц | 256 бит | 44,8 ГБ/с | 24 | 9.0c | 2.1 | AGP 8x или 1.1 |
GeForce 7950 GX2‡ | 500 МГц x2 | – | 1,2 ГГц x2 | 256-бит x2 | 38,4 ГБ/с x2 | 24 х 2 | 9.0c | 2.1 | 1.1 |
GeForce 8400 GS | 450/900 МГц | – | 800 МГц | 64-разрядная версия | 6,4 ГБ/с | 16 | 10 | 2.1 | 1.1 |
GeForce 8400 GS (версия 2) | 567 / 1400 МГц | – | 800 МГц | 64-разрядная версия | 6.4 ГБ/с | 8 | 10 | 3,3 | 2,0 |
GeForce 8400 GS (версия 3) | 520/1230 МГц | – | 800 МГц | 64-разрядная версия | 6,4 ГБ/с | 16 | 10,1 | 3,3 | 2,0 |
GeForce 8500 GT | 450/900 МГц | – | 666 МГц или 800 МГц | 128-бит | 10,6 ГБ/с или 12,8 ГБ/с | 16 | 10 | 2.1 | 1.1 |
GeForce 8600 GT DDR2 | 540/1,18 ГГц | – | 666 МГц или 800 МГц | 128-бит | 10,6 ГБ/с или 12,8 ГБ/с | 32 | 10 | 2.1 | 1.1 |
GeForce 8600 GT GDDR3 | 540/1,18 ГГц | – | 1,4 ГГц | 128-бит | 22,4 ГБ/с | 32 | 10 | 2.1 | 1.1 |
GeForce 8600 GTS | 675 / 1,45 ГГц | – | 2 ГГц | 128-бит | 32 ГБ/с | 32 | 10 | 2.1 | 2,0 |
GeForce 8800 GS | 550/1375 МГц | – | 1,6 ГГц | 192-битный | 38,4 ГБ/с | 96 | 10 | 2.1 | 2,0 |
GeForce 8800 GT | 600/1.5 ГГц | – | 1,8 ГГц | 256 бит | 57,6 ГБ/с | 112 | 10 | 2.1 | 2,0 |
GeForce 8800 GTS | 500/1,2 ГГц | – | 1,6 ГГц | 320-бит | 64 ГБ/с | 96 | 10 | 2.1 | 1.1 |
GeForce 8800 GTS 512 | 650/1625 МГц | – | 1,94 ГГц | 256 бит | 62.08 ГБ/с | 128 | 10 | 2.1 | 2,0 |
GeForce 8800 GTX | 575 / 1,35 ГГц | – | 1,8 ГГц | 384-битный | 86,4 ГБ/с | 128 | 10 | 2.1 | 1.1 |
GeForce 8800 Ultra | 612 / 1,5 ГГц | – | 2,16 ГГц | 384-битный | 103,6 ГБ/с | 128 | 10 | 2.1 | 1.1 |
GeForce 9400 GT | 550/1,4 ГГц | – | 800 МГц | 128-бит | 12,8 ГБ/с | 16 | 10 | 2.1 | 2,0 |
GeForce 9500 GT DDR2 | 550/1400 МГц | – | 1 ГГц | 128-бит | 16 ГБ/с | 32 | 10 | 2.1 | 2,0 |
GeForce 9500 GT GDDR3 | 550/1400 МГц | – | 1.6 ГГц | 128-бит | 25,6 ГБ/с | 32 | 10 | 2.1 | 2,0 |
GeForce 9600 GSO | 550/1350 МГц | – | 1,6 ГГц | 192-битный | 38,4 ГБ/с | 96 | 10 | 2.1 | 2,0 |
GeForce 9600 GSO 512 | 650/1625 МГц | – | 1,8 ГГц | 256 бит | 57.6 ГБ/с | 48 | 10 | 2.1 | 2,0 |
GeForce 9600 GT | 600/1500 МГц или 650/1625 МГц | – | 1,8 ГГц | 256 бит | 57,6 ГБ/с | 64 | 10 | 2.1 | 2,0 |
GeForce 9800 GT | 600/1500 МГц | – | 1,8 ГГц | 256 бит | 57,6 ГБ/с | 112 | 10 | 2.1 | 2,0 |
GeForce 9800 GTX | 675/1688 МГц | – | 2,2 ГГц | 256 бит | 70,4 ГБ/с | 128 | 10 | 2.1 | 2,0 |
GeForce 9800 GTX+ | 738 / 1836 МГц | – | 2,2 ГГц | 256 бит | 70,4 ГБ/с | 128 | 10 | 2.1 | 2,0 |
GeForce 9800 GX2‡ | 600/1500 ГГц x2 | – | 2 ГГц x2 | 256-бит x2 | 64 ГБ/с x2 | 128×2 | 10 | 2.1 | 2,0 |
GeForce G100 | 567 / 1400 МГц | – | 1 ГГц | 64-разрядная версия | 8 ГБ/с | 8 | 10 | 2.1 | 2,0 |
GeForce GT 120 | 500/1400 МГц | – | 1 ГГц | 128-бит | 16 ГБ/с | 32 | 10 | 3,0 | 2,0 |
GeForce GT 130 | 500/1250 МГц | – | 1 ГГц | 192-битный | 24 ГБ/с | 48 | 10 | 2.1 | 2,0 |
GeForce GTS 150 | 738 / 1836 МГц | – | 2 ГГц | 256 бит | 64 ГБ/с | 128 | 10 | 2.1 | 2,0 |
GeForce 205 OEM | 589 / 1402 МГц | – | 1 ГГц | 64-разрядная версия | 8 ГБ/с | 8 | 10,1 | 3.1 | 2,0 |
GeForce 210 | 589 / 1402 МГц | – | 1 ГГц | 64-разрядная версия | 8 ГБ/с | 16 | 10.1 | 3.1 | 2,0 |
GeForce GT 220 | 625/1360 МГц | – | 1,58 ГГц | 128-бит | 25,28 ГБ/с | 48 | 10,1 | 3.1 | 2,0 |
GeForce GT 240 DDR3 | 550/1340 МГц | – | 1,8 ГГц | 128-бит | 28,8 ГБ/с | 96 | 10,1 | 3,2 | 2.0 |
GeForce GT 240 GDDR3 | 550/1340 МГц | – | 2 ГГц | 128-бит | 32 ГБ/с | 96 | 10,1 | 3,2 | 2,0 |
GeForce GT 240 GDDR5 | 550/1340 МГц | – | 3,4 ГГц | 128-бит | 54,4 ГБ/с | 96 | 10,1 | 3,2 | 2,0 |
GeForce GTS 240 OEM | 675 / 1620 МГц | – | 2.2 ГГц | 256 бит | 70,4 ГБ/с | 112 | 10 | 3,0 | 2,0 |
GeForce GTS 250 512 МБ | 675 / 1620 МГц | – | 2 ГГц | 256 бит | 64 ГБ/с | 128 | 10 | 3,0 | 2,0 |
GeForce GTS 250 1 ГБ | 738 / 1836 МГц | – | 2,2 ГГц | 256 бит | 70.4 ГБ/с | 128 | 10 | 3,0 | 2,0 |
GeForce GTX 260 | 576 / 1242 МГц | – | 2 ГГц | 448 бит | 112 ГБ/с | 192 | 10 | 2.1 | 2,0 |
GeForce GTX 260/216 | 576 / 1242 МГц | – | 2 ГГц | 448 бит | 112 ГБ/с | 216 | 10 | 2.1 | 2,0 |
GeForce GTX 275 | 633 / 1404 МГц | – | 2,268 ГГц | 448 бит | 127 ГБ/с | 240 | 10 | 3,0 | 2,0 |
GeForce GTX 280 | 602 / 1296 МГц | – | 2,21 ГГц | 512-бит | 141,7 ГБ/с | 240 | 10 | 2.1 | 2,0 |
GeForce GTX 285 | 648 / 1476 МГц | – | 2.48 ГГц | 512-бит | 159 ГБ/с | 240 | 10 | 2.1 | 2,0 |
GeForce GTX 295‡ | 576 / 1242 МГц x2 | – | 2 ГГц x2 | 448-бит x2 | 112 ГБ/с x2 | 240 х 2 | 10 | 2.1 | 2,0 |
GeForce 310 OEM | 589 / 1402 МГц | – | 1 ГГц | 64-разрядная версия | 8 ГБ/с | 16 | 10.1 | 3.1 | 2,0 |
GeForce 315 OEM | 475 / 1100 МГц | – | 1,58 ГГц | 64-разрядная версия | 12,6 ГБ/с | 48 | 10,1 | 3,2 | 2,0 |
GeForce GT 320 OEM | 540/1302 МГц | – | 1,58 ГГц | 128-бит | 25,3 ГБ/с | 72 | 10,1 | 3,2 | 2,0 |
GeForce GT 330 OEM | 500/1250 МГц или 550/1340 МГц | – | 1 ГГц или 1.6 ГГц | 128-бит. 192-битный или 256-битный | (варьируется) | 96 или 112 | 10 | 3,2 | 2,0 |
GeForce GT 340 OEM | 550/1340 МГц | – | 3,4 ГГц | 128-бит | 54,4 ГБ/с | 96 | 10,1 | 3,2 | 2,0 |
GeForce GT 405 OEM | 589 / 1402 МГц | – | 1,58 ГГц | 64-разрядная версия | 12.64 ГБ/с | 16 | 10,1 | 3.1 | 2,0 |
GeForce GT 420 OEM | 700/1400 МГц | – | 1,8 ГГц | 128-бит | 28,8 ГБ/с | 48 | 11 | 4.1 | 2,0 |
GeForce GT 430 | 700 / 1400 fgefoMHz | – | 1,6 ГГц или 1,8 ГГц | 128-бит | 25,6 ГБ/с или 28,8 ГБ/с | 96 | 11 | 4.2 | 2,0 |
GeForce GT 440 DDR3 | 810/1620 МГц | – | 1,8 ГГц | 128 бит | 28,8 ГБ/с | 96 | 11 | 4.2 | 2,0 |
GeForce GT 440 GDDR5 | 810 / 1620 МГц | – | 3,2 ГГц | 128-бит | 51,2 ГБ/с | 96 | 11 | 4.2 | 2,0 |
GeForce GTS 450 | 783 / 1566 МГц | – | 3.6 ГГц | 128-бит | 57,7 ГБ/с | 192 | 11 | 4.2 | 2,0 |
GeForce GTX 460 SE | 650/1300 МГц | – | 3,4 ГГц | 256 бит | 108,8 ГБ/с | 288 | 11 | 4.1 | 2,0 |
GeForce GTX 460 768 МБ | 675 / 1350 МГц | – | 3,6 ГГц | 192-битный | 86.4 ГБ/с | 336 | 11 | 4.1 | 2,0 |
GeForce GTX 460 1 ГБ | 675 / 1350 МГц | – | 3,6 ГГц | 256 бит | 115,2 ГБ/с | 336 | 11 | 4.1 | 2,0 |
GeForce GTX 460 v2 1 ГБ | 778 / 1556 МГц | – | 4 ГГц | 192-битный | 96,2 ГБ/с | 336 | 11 | 4.1 | 2,0 |
GeForce GTX 465 | 607 / 1215 МГц | – | 3206 МГц | 256 бит | 102,6 ГБ/с | 352 | 11 | 4.2 | 2,0 |
GeForce GTX 470 | 607 / 1215 МГц | – | 3348 МГц | 320-бит | 133,9 ГБ/с | 448 | 11 | 4.2 | 2,0 |
GeForce GTX 480 | 700/1401 МГц | – | 3696 МГц | 384-битный | 177.4 ГБ/с | 480 | 11 | 3,2 | 2,0 |
GeForce GT 510 OEM | 523 / 1046 МГц | – | 1,8 ГГц | 64-разрядная версия | 14,4 ГБ/с | 48 | 11 | 4.1 | 2,0 |
GeForce GT 520 | 810/1620 МГц | – | 1,8 ГГц | 64-разрядная версия | 14,4 ГБ/с | 48 | 11 | 4.2 | 2,0 |
GeForce GT 530 OEM | 700/1400 МГц | – | До 1796 МГц | 128-бит | До 28,7 ГБ/с | 96 | 11 | 4.2 | 2,0 |
GeForce GT 545 DDR3 | 720/1440 МГц | – | До 1,8 ГГц | 192-битный | До 43,2 ГБ/с | 144 | 11 | 4.1 | 2.0 |
GeForce GT 545 GDDR5 OEM | 870/1740 МГц | – | 4 ГГц | 128-бит | 64 ГБ/с | 144 | 11 | 4.2 | 2,0 |
GeForce GTX 550 Ti | 900/1800 МГц | – | 4,1 ГГц | 192-битный | 98,4 ГБ/с | 192 | 11 | 4.2 | 2,0 |
GeForce GTX 555 OEM | 776 / 1553 МГц | – | 3828 МГц | 192-битный | 91.9 ГБ/с | 288 | 11 | 4.2 | 2,0 |
GeForce GTX 560 | 810 950/1620 1900 МГц | – | от 4 до 4,4 ГГц | 256 бит | от 128 до 140,8 ГБ/с | 336 | 11 | 4.1 | 2,0 |
GeForce GTX 560 OEM | 552 / 1104 МГц | – | 3206 МГц | 320-бит | 128,2 ГБ/с | 384 | 11 | 4.2 | 2.0 |
GeForce GTX 560 SE | 736 / 1,472 MHz | – | 3,828 MHz | 192-bit | 92 GB/s | 288 | 11 | 4.1 | 2.0 |
GeForce GTX 560 Ti | 822 / 1,644 MHz | – | 4,008 MHz | 256-bit | 128.3 GB/s | 384 | 11 | 4.1 | 2.0 |
GeForce GTX 560 Ti/448 | 732 / 1,464 MHz | – | 3.8 ГГц | 320-бит | 152 ГБ/с | 448 | 11 | 4.1 | 2,0 |
Geforce GTX 560 Ti OEM | 732 / 1464 МГц | – | 3,8 ГГц | 320-бит | 152 ГБ/с | 352 | 11 | 4.1 | 2,0 |
GeForce GTX 570 | 732 / 1464 МГц | – | 3,8 ГГц | 320-бит | 152 ГБ/с | 480 | 11 | 4.2 | 2,0 |
GeForce GTX 580 | 772 / 1544 МГц | – | 4008 МГц | 384-битный | 192,4 ГБ/с | 512 | 11 | 4.2 | 2,0 |
GeForce GTX 590‡ | 607 / 1,215 МГц x2 | – | 3414 МГц x2 | 384-бит x2 | 163,9 ГБ/с x2 | 512 х 2 | 11 | 4.2 | 2,0 |
GeForce GT 605 OEM | 523 / 1046 МГц | – | 1796 МГц | 64-разрядная версия | 14.4 ГБ | 48 | 11 | 4.2 | 2,0 |
GeForce GT 610 | 810/1620 МГц | – | 1796 МГц | 64-разрядная версия | 14,4 ГБ/с | 48 | 11 | 4.2 | 2,0 |
GeForce GT 620 | 700/1400 МГц | – | 1,8 ГГц | 64-разрядная версия | 14,4 ГБ/с | 96 | 11 | 4.2 | 2,0 |
GeForce GT 620 OEM | 810/1620 МГц | – | 1796 МГц | 64-разрядная версия | 14,4 ГБ/с | 48 | 11 | 4.2 | 2,0 |
GeForce GT 630 D3 | 700 МГц / 1,4 ГГц | – | 1,6–1,8 ГГц | 128-бит | от 25,6 до 28,8 ГБ/с | 96 | 11 | 4.2 | 2,0 |
GeForce GT 630 G5 | 810 МГц/1.62 ГГц | – | 3,2 ГГц (GDDR5) | 128-бит | 51,2 ГБ/с | 96 | 11 | 4.2 | 2,0 |
GeForce GT 630 2 ГБ | 902 МГц | – | 1,8 ГГц | 64-разрядная версия | 14,4 ГБ/с | 384 | 11.1 | 4.2 | 2,0 |
GeForce GT 630 OEM | 875 МГц | – | 1782 МГц | 128-бит | 28.5 ГБ/с | 192 | 11 | 4.2 | 3,0 |
GeForce GT 635 | 967 МГц | – | 2 ГГц | 64-разрядная версия | 16 ГБ/с | 384 | 11 | 4,3 | 3,0 |
GeForce GT 640 2 ГБ DDR3 | 900 МГц | – | 1,8 ГГц | 128-бит | 28,5 ГБ/с | 384 | 11 | 4,3 | 3.0 |
GeForce GT 640 1 ГБ GDDR5 | 1046 МГц | – | 5 ГГц | 64-разрядная версия | 40 ГБ/с | 384 | 11,1 | 4,3 | 3,0 |
GeForce GT 640 OEM DDR3 | 797 МГц | – | 1782 МГц | 128-бит | 28,5 ГБ/с | 384 | 11 | 4.2 | 3,0 |
GeForce GT 640 OEM DDR3 | 720/1440 МГц | – | 1782 МГц | 192-битный | 43 ГБ/с | 144 | 11 | 4.2 | 2,0 |
GeForce GT 640 OEM GDDR5 | 950 МГц | – | 5 ГГц | 128-бит | 80 ГБ/с | 384 | 11 | 4.2 | 3,0 |
GeForce GT 645 OEM | 823 МГц | – | 4 ГГц | 128-бит | 64 ГБ/с | 576 | 11 | 4,3 | 3,0 |
GeForce GTX 650 | 1058 МГц | – | 5 ГГц | 128-бит | 80 ГБ/с | 384 | 11 | 4,3 | 3.0 |
GeForce GTX 650 Ti | 928 МГц | – | 5,4 ГБ/с | 128-бит | 86,4 ГБ/с | 768 | 11 | 4,3 | 3,0 |
GeForce GTX 650 Ti Boost | 980 МГц | 1033 МГц | 6 ГГц | 192-битный | 144,2 ГБ/с | 768 | 11 | 4,3 | 3,0 |
GeForce GTX 660 | 980 МГц | 1033 МГц | 6 ГГц | 192-битный | 144.2 ГБ/с | 960 | 11 | 4,3 | 3,0 |
GeForce GTX 660 Ti | 915 МГц | 980 МГц | 6 ГГц | 192-битный | 144,2 ГБ/с | 1 344 | 11 | 4,3 | 3,0 |
GeForce GTX 670 | 915 МГц | 980 МГц | 6 ГГц | 256 бит | 192,2 ГБ/с | 1 344 | 11 | 4.2 | 3,0 |
GeForce GTX 680 | 1006 МГц | 1058 МГц | 6008 МГц | 256 бит | 192,2 ГБ/с | 1 536 | 11 | 4.2 | 3,0 |
GeForce GTX 690‡ | 915 МГц x2 | 1019 МГц x2 | 6008 МГц x2 | 256 бит x2 | 192,2 ГБ/с x2 | 1536 x2 | 11 | 4.2 | 3.0 |
GeForce GT 720 (DDR3) | 797 МГц | – | 1,8 ГГц | 64-разрядная версия | 14,4 ГБ/с | 192 | 11 | 4,4 | 2,0 |
GeForce GT 720 (GDDR5) | 797 МГц | – | 5 ГГц | 64-разрядная версия | 40 ГБ/с | 192 | 11 | 4,4 | 2,0 |
GeForce GT 730 (DDR3, 64-разрядная) | 902 МГц | — | 1.8 ГГц | 64-разрядная версия | 14,4 ГБ/с | 384 | 11 | 4,4 | 2,0 |
GeForce GT 730 (DDR3, 128-бит) | 700 МГц | – | 1,8 ГГц | 128-бит | 28,8 ГБ/с | 96 | 11 | 4,4 | 2,0 |
GeForce GT 730 (GDDR5) | 902 МГц | – | 5 ГГц | 64-разрядная версия | 40 ГБ/с | 384 | 11 | 4.4 | 2,0 |
GeForce GT 740 (DDR3) | 993 МГц | – | 1,8 ГГц | 128-бит | 28,8 ГБ/с | 384 | 11 | 4,4 | 3,0 |
GeForce GT 740 (GDDR5) | 993 МГц | – | 5 ГГц | 128-бит | 80 ГБ/с | 384 | 11 | 4,4 | 3,0 |
GeForce GTX 750 | 1020 МГц | 1085 МГц | 5 ГГц | 128-бит | 80 ГБ/с | 512 | 11.2 | 4,4 | 3,0 |
GeForce GTX 750 Ti | 1020 МГц | 1085 МГц | 5,4 ГГц | 128-бит | 86,4 ГБ/с | 640 | 11,2 | 4,4 | 3,0 |
GeForce GTX 760 | 980 МГц | 1033 МГц | 6 ГГц | 256 бит | 192,2 ГБ/с | 1 152 | 11 | 4,3 | 3.0 |
GeForce GTX 770 | 1046 МГц | 1085 МГц | 7 ГГц | 256 бит | 224,3 ГБ/с | 1 536 | 11 | 4,3 | 3,0 |
GeForce GTX 780 | 863 МГц | 900 МГц | 6 ГГц | 384-битный | 288,4 ГБ/с | 2 304 | 11 | 4,3 | 3,0 |
GeForce GTX 780 Ti | 875 МГц | 928 МГц | 7 ГГц | 384-битный | 336 ГБ/с | 2 880 | 11 | 4,3 | 3.0 |
GeForce GTX ТИТАН | 837 МГц | 876 МГц | 6 ГГц | 384-битный | 288,4 ГБ/с | 2 688 | 11 | 4,3 | 3,0 |
GeForce GTX ТИТАН Черный | 889 МГц | 980 МГц | 7 ГГц | 384-битный | 336 ГБ/с | 2 880 | 11,2 | 4,4 | 3,0 |
GeForce GTX TITAN Z‡ | 705 МГц | 876 МГц | 7 ГГц | 384-битный | 336 ГБ/с | 2 880 | 11 | 4.4 | 3,0 |
GeForce GTX 960 | 1127 МГц | 1178 МГц | 7 ГГц | 128-бит | 112 ГБ/с | 1 024 | 12 | 4,4 | 3,0 |
GeForce GTX 970 | 1050 МГц | 1178 МГц | 7 ГГц | 256 бит | 224 ГБ/с | 1 664 | 12 | 4,4 | 3,0 |
GeForce GTX 980 | 1126 МГц | 1216 МГц | 7 ГГц | 256 бит | 224 ГБ/с | 2 048 | 12 | 4.4 | 3,0 |
GeForce GTX 980 Ti | 1000 МГц | 1075 МГц | 7 ГГц | 384-битный | 336 ГБ/с | 2 816 | 12.1 | 4,5 | 3,0 |
GeForce GTX ТИТАН X | 1000 МГц | 1075 МГц | 7 ГГц | 384-битный | 336 ГБ/с | 3 072 | 12.1 | 4,5 | 3,0 |
† Некоторые графические процессоры используют два тактовых сигнала: более высокий для шейдерных процессоров и более низкий для остальной части чипа.
†† Эта видеокарта имеет два графических процессора, работающих параллельно (SLI). Опубликованные спецификации относятся только к одному из чипов.
* Производитель может установить другую тактовую частоту или интерфейс памяти, так что будьте внимательны, так как не все видеокарты на этом чипе имеют эту спецификацию. Скорость передачи памяти будет зависеть от используемого интерфейса и тактовой частоты.
(TC) означает TurboCache. TurboCache — это технология, которая позволяет видеокарте имитировать больший объем видеопамяти, используя часть оперативной памяти основной системы в качестве видеопамяти.Прочитайте наш учебник на эту тему, чтобы лучше понять эту функцию.
Версия DirectX указана в таблице ниже:
DirectX | Модель шейдера |
7,0 | № |
8.1 | 1,4 |
9,0 | 2,0 |
9.0с | 3,0 |
10 | 4,0 |
10.1 | 4.1 |
11 | 5,0 |
11.1 | 5.1 |
11,2 | 5,2 |
12 | 6,0 |
12.1 | 6.1 |
Подробное обсуждение этого вопроса см. в нашем руководстве по DirectX.
лучших дешевых видеокарт для Fortnite [2022]
Fortnite, без сомнения, одна из самых популярных игр всех времен.Кроме того, это одна из тех игр, которая проверила возможности многих графических процессоров, обещавших обеспечить наилучшие игровые возможности. Честно говоря, высокопроизводительные графические процессоры от Nvidia, особенно из семейства RTX, как правило, лучше всего подходят для Fortnite. Но не все могут получить в свои руки эти высокопроизводительные карты из-за их премиальной цены. Итак, есть ли более дешевые видеокарты, которые следует учитывать, когда дело доходит до игры в Fortnite?
Да, есть недорогие видеокарты для игры в Fornite с настройками 1080p.Более того, эти графические процессоры действительно не позволяют вам сломать свой банковский счет, чтобы играть в Fortnite во всей ее красе. Так что, если вы любите бюджет, эти видеокарты стоит рассмотреть в это время года.
Требования к видеокарте для Fortnite
Вот официальные требования к видеокарте для игры
Минимальные требования: Nvidia GTX 660 или AMD HD 7870
Обзоры лучших дешевых видеокарт для Fortnite
Вот некоторые из наших главных соображений:
1.EVGA GeForce GTX 1060 SC игровая | В целом лучший бюджетный графический процессор для Fortnite
Основные характеристики:
- Часовая скорость 1607 MHZ
- 6 ГБ GDDR5 Memory
- DirectX 12
- 192-битный интерфейс памяти
- 1x DVD-D, 3 x DP, 1x HDMI 2.0 порты
- Макс. Разрешение 7680 × 4320
- 400W PSU Требование
GeForce GTX 1060 SC, графический процессор, который идеально сочетает в себе цену и производительность. Хотя эта видеокарта не соответствует линейке RTX от Nvidia, она обеспечивает отличную производительность при игре в такие игры, как Fortnite и PUBG.Благодаря 6 ГБ памяти GDDR5 с тактовой частотой 1607 МГц GTX 1060 SC позволяет превзойти пороговое значение в 60 кадров в секунду без снижения игровых настроек.
Нам очень понравился его компактный дизайн и размеры, благодаря которым этот GPU легко помещается в тесных корпусах ПК. Кроме того, она потребляет меньше энергии по сравнению с другими игровыми картами среднего класса на рынке.
В верхней части видеокарты установлен радиальный вентилятор для отвода лишнего тепла. В технологии охлаждения Nvidia ACX используются оптимизированные лопасти вентилятора, обеспечивающие больший приток воздуха при меньшем энергопотреблении.Кроме того, система подшипников с двумя медведями помогает вентилятору двигаться на полной скорости без шума.
Теперь перейдем к производительности GTX 1060 SC при игре в Fortnite на настройках 1080p. Мы не разгоняли этот GPU, и большую часть времени fps был выше среднего без каких-либо лагов. Мы играли в Fortnite на мониторе с разрешением 1080p 144 Гц и большую часть времени получали более 100 кадров в секунду.
Однако имейте в виду, что во время тестирования этого графического процессора с Fortnite мы использовали Core i9 9900K со штатной тактовой частотой 3.6 ГГц. Так что, если вы используете процессор старшего поколения с GTX 1060 SC, средний показатель fps может отличаться для вас.
В целом, это отличный чип среднего класса, который намного лучше работает в таких играх, как Fortnite, где нет вариантов лагов или сбоев в многопользовательских боевых сценах.
2. XFX Radeon RX 580 GTS Black Edition | Самый доступный графический процессор AMD для Fortnite
Основные характеристики :
- Разгон до 1405 МГц
- 8 ГБ видеопамяти GDDR5
- 256-битный интерфейс памяти
- Технология охлаждения с двойным рассеиванием XFX
- 3xDP, 1xHDMI, 1xDVI видеовыход PCIe 934.0
- 7680 x 4320 Максимальное разрешение
- Требуемый блок питания 400 Вт
Несомненно, Radeon RX 580 GTS Black Edition остается первым выбором многих бюджетных геймеров по всему миру. Этот графический процессор усложнил жизнь самым многообещающим игровым картам Nvidia, таким как GTX 1060 и GTX 1070, во многих играх. И причина этого в его высоких характеристиках и производительности в играх AAA.
Теперь, когда на рынке бушуют видеокарты типа GDDR6, такие графические процессоры, как RX 580, по-прежнему занимают лидирующие позиции, когда дело доходит до игр в такие известные игры, как Fortnite, PUBG и Overwatch.Прежде всего потому, что эта видеокарта разогнана на заводе до частоты 1405 МГц, что достаточно для обеспечения стабильной частоты кадров в разрешении 1080p.
Radeon RX 580 GTS Black Edition — феноменальная видеокарта с 2304 потоковыми процессорами, 8 ГБ видеопамяти GDDR5 и 256-битным интерфейсом памяти. Мы в GPURepublic являемся поклонниками 256-битных видеокарт из-за их мощных игровых возможностей, и в данном случае эта карта оправдывает наши ожидания.
А если мы перейдем к решению по охлаждению этой видеокарты, то у нас вообще не останется слов.Например, этот графический процессор разработан с учетом всей работы, которую может взять на себя геймер.
Кроме того, он оснащен технологией охлаждения с двойным рассеянием XFX от AMD, которая дает ему небольшое преимущество перед GTX 1660 SC от Nvidia. Кроме того, два мощных вентилятора повышают тепловую эффективность и делают этот графический процессор идеальным выбором для оверклокеров.
Теперь поговорим об игровом процессе Fortnite на этом графическом процессоре. Как и в случае с Nvidia GTX 1660 SC, мы установили разрешение игры на FHD. RX 580 GTS Black Edition показал впечатляющую производительность в Fortnite при разрешении 1080p с частотой кадров более 60 кадров в секунду большую часть времени.
Однако имейте в виду, что RX 580 GTS потребляет больше энергии по сравнению с Nvidia GTX 1660 SC. Поэтому, если вы решили использовать эту видеокарту, убедитесь, что у вас есть блок питания высокой мощности, чтобы избежать каких-либо проблем.
В общем и целом, эта видеокарта является достойным вложением средств, чтобы играть в современные игры, не разоряясь на флагманские карты высокого класса. Все, что вам нужно, это хороший процессор и достаточно оперативной памяти, которая соответствует возможностям этого графического процессора.
3.GeForce GTX 1050 Ti | Экономичный графический процессор для Fortnite
Основные характеристики:
- Boost Clock 1430 MHZ
- 4GB GDDR5 Memory
- 128-битный интерфейс памяти 0
- DirectX 12
- 300 PSU 124460
- 300 PSU Рекомендуется
- 8K Разрешение Вывод
Старый помощник GTX 1050 TI не совпадает с современным графическим процессором на сегодняшний день, но он может позволить вам без проблем удовлетворить вашу тягу к Fortnite. Теперь эта видеокарта находится на нижней стороне бюджета и спецификаций.Если вы действительно хотите сэкономить немного денег на других игровых периферийных устройствах, вы можете сразу же выбрать эту видеокарту, и она вас не подведет.
GTX 1050 Ti получила награду за поддержку многих требовательных игр AAA. Единственное, что заставило этот GPU зайти так далеко, — это 4 ГБ памяти GDDR5 и повышенная тактовая частота до 1430 МГц. Вы даже можете играть в такие игры, как Batman: Arkham Origins, на максимальных настройках на этой карте. И играть в Fortnite на этой малобюджетной карте вообще не проблема.
Кроме того, эта видеокарта потребляет мало энергии.Таким образом, нет необходимости покупать дорогой блок питания вторичного рынка для его питания, поскольку эта карта действительно не нуждается во внешнем разъеме питания. Нам нравится этот GTX 1050 Ti за его игровой характер среднего уровня, хотя он находится на стороне начального уровня рынка графических процессоров.
Переходим к игровой производительности GTX 1050 Ti в Fortnite. Удивительно, но этот GPU не подвел даже на максимальных настройках. Однако средняя частота кадров при игре в Fortnite большую часть времени при высоких настройках составляла около 55-85 кадров в секунду, что меньше по сравнению с GTX 1660 SC и RX 580 GTS Black Edition.Но при такой более низкой цене и более низких характеристиках, по крайней мере, мы можем пренебречь дополнительными fps.
4. ZOTAC GeForce GT 1030 | Самая дешевая видеокарта для запуска Fortnite
Основные характеристики :
- 1227 MHZ базовые часы
- 2 ГБ DDR3 видео памяти
- PCIE 3.0
- 64-битный интерфейс
- 1x VGA, 1xhdmi 2.0b
- низкопрофильный кронштейн
- 300W PSU потребности
здесь мы идем, ZOTAC GeForce GT 1030, низкопрофильная видеокарта, предназначенная для корпусов малого форм-фактора.Вдобавок ко всему, эта видеокарта идеально подходит для малобюджетных геймеров, которые не хотят тратить больше 150 долларов. Это скорее недорогой графический процессор, который может запускать Fortnite на вашем ПК со средними настройками.
Благодаря архитектуре Nvidia Pascal эта низкопрофильная видеокарта обеспечивает значительную производительность в играх. Zotac GeForce GT 1030 с 2 ГБ памяти DDR3 и 64-разрядным интерфейсом идеально подходит для игр с разрешением 720p, но при разрешении 1080p зависания и сбои станут вашей судьбой.
Преимущество этой карты в ее низкопрофильных размерах.Вы можете легко разместить этот графический процессор в тесных корпусах ПК. Этот графический процессор — хороший вариант для ПК, которому требуется маломощный и миниатюрный графический процессор. Он потребляет меньше энергии и большую часть времени остается прохладным. Zotac GeForce GT 1030 не предназначена для игр с высокой частотой кадров, но для легких игр это может быть идеальным выбором.
Мы играли в Fortnite на этом самом дешевом графическом процессоре, и он работал так, как мы ожидали, производительность, которую можно ожидать от малобюджетных карт стоимостью менее 150 долларов. Даже при настройках 720p средняя частота кадров составляла от 55 до 65.Но игра была играбельной и лагов почти не было заметно. Если вы соедините графический процессор с хорошим процессором, он наверняка сможет обеспечить более 70 кадров в секунду.
Таблица сравнения производительностиграфические карты | Средняя частота кадров в Fortnite (1080P) |
EVGA GeForce GTX 1060 SC | 147FPS |
XFX Radeon RX 580 GTS Black Edition | 9000FPS |
Geforce GTX 1050 Ti | 85fps |
ZOTAC GeForce GT 1030 | 55fps |
Внутриигровые настройки также влияют на производительность графического процессора.Вот настройки, которые мы сделали при тестировании Fortnite.
-
- Post-обработка и антиквалификация : OFF
- Shadows: Средний / ВЫКЛ (в случае Zotac GT 1030)
- Render Расстояние: EPIC
- Разрешение : 1080P
- Разрешение дисплея : 100%
- Эффекты : Средний
- V-Sync: Выкл.
- Размытие в движении: Выкл.
Если вы новичок и не знаете, как выбрать лучший графический процессор для игры в Fortnite, следуйте нескольким важным рекомендациям:
VRAM (видеопамять)
Как мы уже обсуждали минимальные требования для игры в Fortnite, все, что вам нужно, — это видеокарта с минимум 2 ГБ видеопамяти.Имейте в виду, что это минимум для игры на самых низких настройках. Если вы хотите использовать настройки 1080p в Fortnite, лучше использовать графический процессор с не менее 6 ГБ видеопамяти.
Расчетная мощность
TDP означает расчетную тепловую мощность, и это максимальная мощность, которую может потреблять графический процессор в ваттах. Некоторые видеокарты имеют более низкий TDP, тогда как другим для правильной работы требуется мощный блок питания. Прежде чем выбрать графический процессор, лучше узнать о рейтинге TDP этой конкретной карты.
Кроме того, лучше иметь в компьютере надежный источник питания для питания графического процессора. Количество ватт, необходимое для вашего блока питания, зависит от типа выбранного вами графического процессора. Все графические процессоры, которые мы здесь перечислили, могут легко работать с блоком питания мощностью 550 Вт.
Размеры
Некоторые графические процессоры больше по размеру по сравнению с другими, заменяющими почти 2 слота шириной на материнской плате. Как правило, графические процессоры с более чем одним вентилятором громоздки и не помещаются в корпус ПК малого форм-фактора.Итак, убедитесь, что у вас есть просторный корпус для ПК, если вы собираетесь использовать громоздкий графический процессор.
Связь
Если вы хотите играть в Fortnite с более высоким разрешением, например 4K, убедитесь, что выбранный вами графический процессор имеет хотя бы один разъем HDMI. Кроме того, современные мониторы отказываются от старых адаптеров VGA, поэтому лучше использовать графический процессор, поддерживающий расширенный интерфейс дисплея.
И Nvidia, и AMD производят видеокарты с возможностью подключения HDMI и DisplayPort. Если вы хотите наслаждаться Fortnite со скоростью 240 кадров в секунду, вам понадобится порт DisplayPort или порт HDMI, чтобы не отставать от скорости вашего монитора с частотой 240 Гц.
Современные видеокарты от Nvidia и AMD оснащены такими технологиями, как G-Sync и FreeSync, которые обеспечивают лучшую производительность на мониторах с более высокой частотой обновления.
Контрольные показатели
В настоящее время поиск тестов — лучший способ проверить производительность видеокарты, не покупая ее. Сравнительный анализ дает вам общее представление о том, какую частоту кадров вы можете ожидать в конкретной игре в зависимости от выбранной вами графической карты.
Но не ведитесь сразу на результаты тестов.Есть и другие факторы, влияющие на результат теста, такие как ЦП, ОЗУ и т. д.
Рабочий стол, используемый для тестирования этих графических процессоров
-
- Процессоры : CORE I9 9900K CONITED на 3.8 GHZ
- RAM: 16GB DDR4 Corsair 3200 MHZ
- Материнская плата: ASUS asus Z390
- Склад : Samsung Evo 1TB SSD
- PSU: Cooler Master 750 Вт
- Монитор: Acer Nitro XZ342CK Pbmiiphx 144 Гц
До
Рекомендация
Итак, это были одни из лучших недорогих видеокарт, на которых можно легко запустить Fortnite.Что касается нашей рекомендации, мы обнаружили, что RX580 GTS Black Edition более совместима с такими играми, как Fortnite и PUBG. Причиной этого является 256-битный интерфейс и 8 ГБ памяти GDDR5 по доступной цене. И если вы действительно хотите сэкономить и не заботитесь о частоте кадров, нет лучшей карты, чем GTX 1050 Ti. Эта карта может позволить вам играть в Fortnite с более высокими настройками, если у вас есть высокопроизводительный процессор и 8 ГБ оперативной памяти.
Часто задаваемые вопросы
Может ли низкопрофильный GT 1030 работать с Fornite?
Хотя GT 1030 является видеокартой начального уровня, она может работать с Fortnite на низких-средних настройках.Нам удалось поиграть в Fortnite на GT 1030 с настройками 1080p и получить в среднем 55 кадров в секунду. Однако, если вы уменьшите настройки до 720p, вы также можете ожидать более 60 кадров в секунду.
Какой графический процессор может запускать Fortnite со скоростью 60 кадров в секунду?
Графическая карта с оперативной памятью DDR4 объемом не менее 4 ГБ и интерфейсом памяти GDDR5 позволит вам играть в Fortnite со скоростью 60 кадров в секунду. Из нашего списка GTX 1050 Ti — самая удобная видеокарта, которая достигает 85 кадров в секунду при настройках 1080p в Fortnite.
Какая видеокарта может запускать Fortnite со скоростью 240 кадров в секунду?
Чтобы добиться гораздо более высокой частоты кадров, лучше выбрать более мощную видеокарту серии RTX от Nvidia или серии RX 6000 от AMD.Кроме того, вы должны рассмотреть возможность монитора с более высокой частотой обновления, чтобы достичь этого рубежа. Монитор с частотой 60 Гц или 144 Гц может ограничить вас до 144 кадров в секунду, даже если у вас есть видеокарта высокого класса, такая как RTX 3080 или 3090.
Можно ли запустить Fortnite без видеокарты?
Хотя. интегрированные чипы на материнской плате в последние годы стали более мощными, тем не менее, в такие игры, как Fortnite, немного сложно играть без выделенной видеокарты. Даже если вам удастся играть в Fortnite без графического процессора, вы не сможете использовать настройки выше 720p.Даже при настройках 720p вы будете испытывать лаги и задержки в игровом процессе.
Привет, я автор и основатель этого блога. У меня более 10 лет опыта работы в отрасли. За время своего путешествия я протестировал и проверил сотни видеокарт для пользовательских сборок ПК. Я верю, что мои знания и опыт помогут вам выбрать карту, которая действительно соответствует вашим потребностям и бюджету.
Лучшая видеокарта для фильмов 4k — наш лучший выбор
Какая лучшая видеокарта для фильмов 4K ? Поскольку многие из лучших фильмов сейчас снимаются в формате 4K (и большинство пользователей YouTube, потоковых платформ и даже веб-сайтов социальных сетей), вам необходимо найти видеокарту, которая позволит вам увидеть все в полной мере.
Когда у тебя видеокарта для просмотра фильмов , все выглядит четче и больше похоже на реальную жизнь. У вас не будет проблем с рендерингом или задержкой. Контраст будет отличный даже на тех фильмах, где не оплачивали счет за освещение.
Сравнительная таблица
а какая видеокарта лучше для 4К фильмов?
При поиске лучшей видеокарты для фильмов 4K мы смогли сузить список вариантов до нескольких, которые действительно выделялись.Это выбор, который делает цвета яркими, помогает оживить природу и многое другое.
Ознакомьтесь с некоторыми из наших любимых:
1. EVGA GeForce GT 1030 SC 2 ГБ GDDR5, пассивная
Технические характеристики:
- Память: 2 ГБ GDDR5 64-битная память
- Низкопрофильный дизайн: Длина карты 150 мм
- Тактовая частота ядра: 1252 МГц в режиме разгона и 1227 МГц в игровом режиме
- Boost Clock: 1506 МГц в режиме разгона и 1468 МГц в игровом режиме
- Совместимость: 1 x Dual-Link DVI-D 1 x HDMI 2.0b
- Потоковые процессоры: 384
- Интерфейс: PCI Express 3.0 x4
- Разгон одним щелчком мыши с помощью AORUS Graphics Engine
Обзор:
EVGA GeForce FT — одна из лучших низкопрофильных видеокарт для фильмов 4K . Он способен идти в ногу с визуальными изменениями фильмов, и многие рецензенты также отметили, насколько хорошо он работает, когда вы смотрите много более мрачных фильмов.
Видеокарта — отличный вариант с низкой ценой, и она имеет энергосберегающую сборку , поэтому вам не придется конкурировать с системой охлаждения вашего ноутбука.Он использует только 30 Вт TDP, поэтому вы можете использовать его и в сборке с низким энергопотреблением.
Если у вас есть свободный слот PCIe, это отличный вариант. Если у вас нет этого медленного, вы можете рассмотреть другой вариант.
EVGA GeForce GT 1030 — не самая новая видеокарта на рынке, но все же — хороший вариант по цене . Что касается 4K, то он делает замечательную работу. Это также немного дешевле, чем большинство других вариантов.
С тех пор как он появился на рынке в течение некоторого времени, мы смогли отследить, нравится ли он людям и есть ли какое-либо ухудшение производительности, и большинство людей, кажется, довольны тем, как он держится .Не так много людей жаловались на то, что не было очевидно для них с самого начала.
EVGA GeForce GT 1030 — это видеокарта 4K , состоящая из 1,8 миллиарда транзисторов , но при этом занимающая всего 70 мм². Есть много причин, по которым они смогли это сделать, но главная причина — 14-нм техпроцесс FinFET в производстве.
Для любителей кино он поставляется с тремя потоковыми мультипроцессорами, которые помогают оживить ваши фильмы.
Плюсы:
Чрезвычайно доступный, обеспечивает потрясающее качество изображения; отсутствие деградации со временем; низкий форм-фактор; утилита с одним слотом; продажи довольно часто
Минусы:
Распродано на многих платформах; теперь немного старше
2. Компьютерная графическая карта Gigabyte GeForce GT 1030 GV-N1030D5-2GL Low Profile 2G
Технические характеристики:
- Память: 2 ГБ GDDR5 64-битная память
- Низкопрофильный дизайн: Длина карты 150 мм
- Тактовая частота ядра: 1252 МГц в режиме разгона и 1227 МГц в игровом режиме
- Boost Clock: 1506 МГц в режиме разгона и 1468 МГц в игровом режиме
- Совместимость: 1 x Dual-Link DVI-D 1 x HDMI 2.0b
- Потоковые процессоры: 384
- Интерфейс: PCI Express 3.0 x4
- Разгон одним щелчком мыши с помощью AORUS Graphics Engine
Обзор:
GeForce GT 1030 от NVIDIA — еще один отличный вариант графической карты для фильмов . Он дешевле и не потребляет много энергии. Его можно использовать в казуальных играх, но это действительно лучший вариант для потоковой передачи фильмов.
GeForce GT 1030 произведен по 14-нанометровой технологии , имеет 384 ядра и базируется на чипе GP 108.Он имеет базовую тактовую частоту 1227 МГц и турбо-тактовую частоту 1468 МГц. Это упростит потоковую передачу и сократит время рендеринга.
Есть и другие карты от GeForce, использующие другую технологию, но эта использует 64-битную шину, которая имеет доступ к 2 ГБ памяти GDDR5 на частоте 6 ГГц. Его пропускная способность составляет около 48 ГБ/с, но вы не заметите большой разницы.
Это видеокарта не для тех, кто хочет хардкорных игр, а для тех, кто ищет для просмотра фильмов в 4K. Это также популярный вариант для графических дизайнеров или редакторов фильмов , потому что они могут редактировать в режиме реального времени.
Есть несколько причин выбрать эту карту из других вариантов в этом списке. GeForce GT 1030 имеет очень низкое энергопотребление с TDP 30 Вт. Вам не нужно будет добавлять еще один разъем питания. Люди будут использовать его в компактном корпусе и на половинной высоте. Можно даже использовать с пассивной системой охлаждения .
Важно отметить, что он подходит для более повседневного использования компьютера, поскольку не поддерживает технологии SLI, Ansel, G-SYNC, GameStream, VR Ready и Simultaneous Multi-Projection.
Плюсы:
Низкая цена; создает хорошие изображения; Низкопрофильный; легкодоступный; совсем не занимает много места
Минусы:
Не для игр; несколько трудно получить; не поддерживает различные инструменты; никогда не поступит в продажу
3. Компьютерные графические карты MSI GT 1030 2GD4 LP OC
Технические характеристики:
- Серия: GeForce GT 1030 2G LP OC
- Марка: MSI
- Графический сопроцессор: NVIDIA GeForce GT 1030
- Интерфейс видеовыхода: DisplayPort, HDMI
- Марка набора микросхем: Nvidia
Обзор:
MSI GT 1030 — хороший вариант начального уровня от NVIDIA .Он основан на архитектуре Pascal, а это значит, что он будет более бюджетным вариантом и будет потреблять меньше энергии. Большинство людей будут использовать его для казуальных игр или потокового просмотра фильмов .
Спецификации этой карты аналогичны многим другим в этом списке, так что на самом деле нет ничего особенного. Это был , созданный по 14-нм технологии , имеет 384 ядра и базируется на чипе GP 108. Он имеет базовую тактовую частоту 1227 МГц и турбо-тактовую частоту 1468 МГц.
Он использует 64-битную шину, имеет доступ к 2 ГБ памяти GDDR5 на частоте 6 ГГц, и многие люди, которые его используют, скажут, что он работает немного лучше, чем заявлено в этих спецификациях. Фактически, многие говорят, что карта MSI будет работать лучше, чем карты, которые на 25% дороже .
Он используется во многих обычных настольных компьютерах, которые немного дороже, или вы можете купить его отдельно для сборки собственного компьютера. Если вы графический дизайнер , любитель фильмов, любитель YouTube или часто транслируете игры, у вас могут быть отличные варианты.Однако, если вы собираетесь транслировать тяжелые игры, это может быть не лучший выбор.
У этой карты есть несколько явных преимуществ, на которые я хотел бы обратить внимание, — это энергопотребление, с которым у меня всегда возникают проблемы при потоковой передаче фильмов.
Вам не придется беспокоиться о том, что ваш вентилятор гудит в фоновом режиме или о перегреве компьютера. Эта карта имеет TDP всего 30 Вт, что означает, что она работает прохладно.
Важно отметить, что, как и некоторые другие карты в этом списке, она не поддерживает технологии SLI, Ansel, G-SYNC, GameStream, VR Ready и Simultaneous Multi-Projection.Это не будет проблемой для большинства людей, но может стать проблемой для геймеров .
Плюсы:
Более доступный вариант; легко получить; низкий профиль
Минусы:
Не для геймеров; не поддерживает различные функции; никогда не поступает в продажу или снижается в цене
4. Gigabyte Geforce GTX 1050 Ti OC 4 ГБ GDDR5 128-битная графическая карта PCI-E
Технические характеристики:
- Потоковые процессоры: 640 ядер CUDA
- Интерфейс: PCI Express 3.0×16
- Поддерживаемые API: DirectX: 12
- OpenGL: 5
- Скорость памяти: 7 Гбит/с
- Конфигурация памяти: 2 ГБ
- Интерфейс памяти: GDDR5
- Ширина интерфейса памяти: 128-бит
- Разъемы дисплея: 1 x DisplayPort 1.4, 1 x HDMI 2.0b и 1 x DVI-D DL
- Цифровое разрешение: 7680 x 4320 при 60 Гц
Обзор:
Последней видеокартой для фильмов 4K является Gigabyte Geforce GTX 1050.Эта карта предлагает одни из лучших характеристик в списке. Он предлагает чрезвычайно малый форм-фактор, но при этом выдает высококачественные изображения .
Это идеальный вариант для тех, кто любит смотреть фильмы или сериалы в потоковом режиме. Он не требует никаких дополнительных подключений питания и получает все, что ему нужно, от слота PCI Express x 16. Это поможет сохранить другие ресурсы свободными , что важно, когда вы создаете низкопрофильные машины или когда вам нужна машина, которая не перегревается.
Если вы не собираетесь собирать новый компьютер, вы можете не получить эту опцию, потому что она не входит в стандартную комплектацию очень многих машин.
Это будет немного дороже, чем некоторые другие варианты в списке, но ненамного. Это стоит того, чтобы потратить дополнительные деньги. Это низкопрофильная карта, но она по-прежнему полноразмерная, что ограничивает некоторые случаи, в которые она поместится.
В целом, Gigabyte Geforce GTX 1050 — отличный вариант , если вы не хотите тратить слишком много , но все равно хотите отличный вариант.Это даст вам действительно хорошие результаты потоковой передачи.
Плюсы:
Самая маленькая GTX 1050 на рынке; это очень доступно; нет необходимости в подключении внешнего питания; почти всегда есть в наличии
Минусы:
Все еще полная высота, поэтому не во все чехлы поместится; не всегда поддерживает 60fps; работает нестабильно при высоких настройках
Некоторые другие вещи, которые следует учитывать при выборе видеокарты
Конечно, есть и другие вещи, которые следует учитывать при выборе видеокарты.Если вы будете использовать свою видеокарту только для просмотра фильмов, то на самом деле больше не о чем думать.
Однако, если вы собираетесь играть, выполнять работу и просто использовать свой компьютер, вы можете рассмотреть некоторые другие варианты. Для некоторых фильмов 4K использование встроенного графического процессора в ваш процессор будет достаточно мощным. Прежде чем инвестировать в новый GPU, вам нужно проверить, как все выглядит . Часто вы можете получить в основном это, и люди не подумают, что стоит покупать совершенно новую карту.
Вы также можете рассмотреть удлинитель карты, который будет подключаться к материнской плате ПК, который по сути является адаптером, который поможет улучшить качество изображений . Это действительно зависит от того, как вы настроили свою систему и насколько глубоко вы хотите получить.
Для фильмов 4K вам понадобится полный эффект съемки.
Хотя старые фильмы не в формате 4K (если только они не были ремастерированы, чего не так много), вы все равно увидите лучшее качество изображения в тех действительно старых фильмах, которые почти невозможно смотреть на обычном экране.
В фильме 4К все будет четко. Цвета более насыщенные и яркие, чем . Черные выглядят глубже, чем когда-либо раньше — просто помните, что глядя на любой экран сейчас, вы поймете, насколько хорош 4K.
Настроить систему на 4K уже не так просто, как раньше.
Почему видеокарта имеет значение?
Большинство людей, которые смотрят фильмы, знают о типичных проблемах с качеством изображения. Есть серьезные геймеры и те, кто снимает видео, которым нужна мощная видеокарта для работы .По мере того, как графические процессоры становятся быстрее, а технологии совершенствуются, производители должны делать более качественные видеокарты.
Если вы не геймер, в прошлом наличие хорошей видеокарты могло не иметь большого значения. Вы, вероятно, не особо заботились о графическом процессоре, если только он не был вам нужен для конкретных приложений. Все больше и больше начинает иметь значение .
Быстрые советы по выбору лучшей видеокарты для фильмов 4K
Если вы собираетесь купить новую видеокарту для просмотра фильмов в формате 4K, вот несколько советов:
- Вам следует накопить денег на процессор вашего компьютера .Вам понадобится хороший процессор для подключения видеокарты. Ваша система должна хорошо работать вместе — одной хорошей детали недостаточно.
- Убедитесь, что разрешение соответствует вашему монитору. Многие обычные видеокарты подходят для игр или просмотра фильмов с разрешением 1080p, но для просмотра с разрешением, близким к 4K, вам понадобится что-то особенное.
- Вы также хотите учитывать частоту обновления . Если ваш монитор имеет трехзначную частоту обновления, вам понадобится более мощная карта и процессор, чтобы полностью раскрыть свой потенциал.Если ваш монитор работает с максимальной частотой 60 Гц и разрешением 1080p, нет необходимости платить за мощную карту .
- Еще одна вещь, о которой вам следует подумать, — это мощность и объем памяти, необходимые вашей карте. Убедитесь, что в вашем корпусе достаточно места и что блока питания достаточно для всего этого.
- Посмотрите на стартовую цену. Вы хотите проверить, если вы получаете хорошую сделку. Посмотрите на цену, по которой карта была запущена, а затем посмотрите, что она продает сейчас.
- Не получать двойные карты .
- Не рассчитывайте на разгон. Это не поможет вам с потоковой передачей фильмов 4K.
В целом, получить видеокарту для 4K-фильмов не составит труда. Сегодня на рынке появляется все больше и больше вариантов, поэтому у вас будет много материала для изучения. Обязательно посмотрите цену , характеристики и отзывы.
Однако вам действительно нужно подумать об остальной части вашего компьютера и о том, будет ли он поддерживать потоковую передачу 4K и фильмы.
Nvidia RTX 3070 против 3080 против 3090
Графические карты Nvidia Ampere поколения RTX 3000 являются одними из самых захватывающих за многие годы, сделав огромный скачок в общих вычислениях, трассировке лучей и производительности искусственного интеллекта. Они опережают даже самые мощные графические процессоры предыдущего поколения Turing и могут дать каждому игроку дозу зависти к обновлению.
Если вам нужна видеокарта для игр с высоким FPS 4K или даже 8K, новые RTX 3070, 3080 и 3090 от Nvidia — одни из лучших карт для этой работы.Но с резкими различиями в производительности, возможностях и цене важно выбрать правильный графический процессор RTX 3000 для вашего следующего обновления игрового ПК.
Вот сравнение этих трех сверхмощных видеокарт, чтобы вы могли сделать правильный выбор.
По номерам
Все три видеокарты серии RTX 3000 невероятно мощные и обеспечивают одну из самых впечатляющих компьютерных производительностей в играх, которые мы когда-либо видели. Единственная другая видеокарта, которая может даже надеяться идти в ногу с самой доступной из них, — это RTX 2080 Ti, но даже эта карта сильно отстает от других.
Характеристики этих новых карт сами по себе рисуют картину того, насколько они более функциональны, чем их предшественники.
RTX 3070 9001 RTX 3090 GPU GA104-300 GA102-200 GA102-300 Транзисторы 17,4 млрд 28,3 млрд 28.3 миллиарда 5888 5888 8704 10496 46 46 68 82 тензорных ядер (третьего поколения ) 184 272 328 База часов 1500MHz 1440MHz 1395MHz подталкивания часы 1725MHz 1710 МГц 1695MHz Память 8GB GDDR6 10GB GDDR6x 24GB GDDR6X скорость памяти 14 Гбит / с 19 Гбит / с 19.5 GBPS Memory Bus 256-BIT 320-BIT 448 Гбит / с 760 GBPS 936 GBPS TDP 220 Вт 320 Вт 350 Вт Почему он такой мощный?
По сравнению с другими поколениями
Одной из причин того, что поколение RTX 3000 намного мощнее, чем все, что было раньше, является сокращение узла процесса.
В то время как поколение RTX 2000 Turing использовало 12-нм процесс TSMC FinFET, серия Ampere RTX 3000 основана на 8-нм узле Samsung. Это делает его гораздо более плотным графическим процессором, более чем удваивая количество транзисторов для сопоставимых карт из поколения в поколение.
Количество ядер CUDA также намного больше в этом поколении, что также объясняет наибольшую разницу в производительности между графическими процессорами серии RTX 3000. Однако это не так однозначно, как может показаться из таблицы спецификаций.
Графические процессоры поколения Ampere обозначают ядра CUDA совершенно иначе, чем графические карты Nvidia предыдущих поколений. Традиционно графические процессоры Nvidia включают два типа ядер CUDA. Некоторые обрабатывают вычисления с плавающей запятой (FP32) на основе диапазона чисел, а некоторые обрабатывают целочисленные (INT32) вычисления над целыми числами.
Вместо этого серия RTX 3000 имеет выделенные ядра FP32, а также ядра, которые при необходимости могут попеременно выполнять вычисления как FP32, так и INT32.
Прирост производительности во многом зависит от управляемой рабочей нагрузки, а тяжелые задания FP32 приводят к гораздо большему повышению производительности. Что касается спецификации, Nvidia теперь перечисляет все эти ядра как ядра CUDA.
Согласно более традиционным показателям, RTX 3070 будет иметь 2944 ядра CUDA FP32 и еще 2944 ядра CUDA INT32/FP32. Это важно помнить, сравнивая эти карты с более старыми поколениями, которые не отмечали ядра INT32 таким же образом.
Сравнения внутри поколения
Что касается сравнения RTX 3000-серии внутри поколения, это гораздо более четко.
RTX 3080 имеет почти на 48 % больше ядер CUDA, чем RTX 3070, а RTX 3090 — еще 21 %. Хотя тактовые частоты немного снижаются по мере того, как вы поднимаетесь выше, это различие приводит к большому скачку производительности между этими картами при определенных рабочих нагрузках.
Количество ядер RT и Tensor значительно увеличивается по мере того, как вы продвигаетесь вверх по рангу и в этом поколении графических процессоров.Это технологии второго и третьего поколения, соответственно, и они гораздо более эффективны, чем все, что Nvidia раньше включала в свои коммерческие видеокарты. Это делает их превосходными для рабочих станций и задач искусственного интеллекта, а также для трассировки лучей и DLSS для игр.
Конфигурации памяти у этих карт тоже сильно различаются. RTX 3070 имеет традиционную конфигурацию с 8 ГБ быстрой памяти GDDR6 по 256-битной шине. Его производительность отличная, но он сильно отстает от 3080. Эта карта использует 10 ГБ новой памяти Nvidia GDDR6X для значительного увеличения пропускной способности.Его снова легко затмевает RTX 3090 с 24 ГБ еще более быстрых чипов памяти.
TDP растет вместе с техническими характеристиками: RTX 3090 требует 350 Вт мощности и потенциала охлаждения. Вот почему все игровые ПК серии RTX 3000 должны быть оснащены мощным блоком питания и системой охлаждения.
Игровая производительность — насколько мощны эти карты?
Таблицы спецификаций могут рассказать вам лишь немногое о возможностях видеокарты.Синтетические тесты и результаты реальных игр дают гораздо более подробную картину, особенно когда результаты фиксируются широким кругом сторонних тестировщиков, обозревателей и пользователей. Результаты этих карт очевидны: это самые мощные видеокарты, которые когда-либо производила Nvidia.
RTX 3070
RTX 3070 по производительности очень близка к RTX 2080 Ti — флагману последнего поколения. Это означает, что в большинстве современных игр AAA он способен выдавать около 60 кадров в секунду при разрешении 4K, особенно когда доступен DLSS.Трассировка лучей может снизить это значение в некоторых конкретных играх, таких как Control, но 3070 — очень мощная игровая карта 4K.
В качестве альтернативы игра с разрешением 1440p может означать гораздо более высокую частоту кадров, позволяя геймерам с мониторами с высокой частотой обновления максимально использовать их высокую частоту обновления для более плавного игрового процесса.
RTX 3080
В то время как RTX 3070 проигрывает 2080 Ti в некоторых играх, значительно снижая цену надежной игровой карты 4K, RTX 3080 представляет собой следующее поколение почти во всех отношениях.
Его чистая игровая производительность на 30–50 % выше, чем у RTX 3070, гарантируя от 60 до 120 кадров в секунду почти во всех играх с разрешением 4K и всеми настройками на самом высоком уровне. Важно отметить, что его добавленное ворчание значительно увеличивает самую низкую частоту кадров на 1%, помогая устранить любое микрозаикание, которое вы можете увидеть на более слабых видеокартах.
От Assassin’s Creed Odyssey до The Witcher III: Wild Hunt и Borderlands 3 — RTX 3080 — это огромное обновление по сравнению со всем, что было до него.В некоторых сценариях она более чем на 80% быстрее, чем ее аналог последнего поколения, RTX 2080 Super, и легко затмевает RTX 2080 Ti в каждой игре, которую вы запускаете. То же самое и с RTX 3070.
RTX 3080 представляет собой вершину массовой игровой производительности в 2020 году. Она сталкивается с жесткой конкуренцией со стороны видеокарт AMD RDNA2, но для тех, кто хочет также воспользоваться дополнительными функциями Nvidia, такими как запись скриншотов Ansel, DLSS, G- Синхронизация и отличная поддержка потоковой передачи, RTX 3080 занимает первое место в списке высокопроизводительных игр.
RTX 3090
Но это не царь горы. Не совсем. Его старший брат, RTX 3090, берет все лучшее, что есть в RTX 3080, и превращает его в овердрайв.
Он имеет на 20% больше ядер CUDA при сохранении сопоставимых тактовых частот, увеличивает скорость памяти еще на полгигабита в секунду и расширяет шину памяти. Самое главное, он увеличивает доступную память с 10 ГБ GDDR6 до 24 ГБ. Это дает ему возможность обрабатывать текстуры с более высоким разрешением в 4K, а также улучшенные функции изображения в будущих играх.
Он также может делать то, чего раньше не делала ни одна игровая видеокарта: играть в разрешении 8K.
Хотя 8K-телевизоры и мониторы встречаются редко, они все время становятся все более доступными. До сих пор не было возможности играть в таких гигантских разрешениях, но RTX 3090 делает это возможным в ряде игр, включая Wolfenstein: Youngblood и Doom: Eternal. DLSS 2.0 значительно улучшает частоту кадров при этом разрешении, даже если это не всегда необходимо, но в этом нет никаких «если» или «но».RTX 3090 — первая в мире видеокарта с поддержкой 8K.
В цифрах он на 10-20% быстрее, чем RTX 3080, в играх с привязкой к GPU при разрешении 4K, обеспечивая в некоторых случаях более 100 кадров в секунду даже в требовательных играх AAA.
RTX 3090 — дорогая карта, но так всегда бывает с самым мощным оборудованием. И это именно то, чем является RTX 3090. Самая мощная видеокарта в мире.
Производительность трассировки лучей
Все новые видеокарты серии RTX 3000 поставляются с ядрами RT второго поколения, которые обеспечивают производительность 2.7-кратное улучшение производительности трассировки лучей по сравнению с ядрами RT первого поколения в серии RTX 2000.
Это означает, что даже такие карты, как RTX 3070, которые имеют сравнительно небольшое количество ядер RT, обеспечивают производительность трассировки лучей, превышающую то, что могла предложить ранее карта высшего уровня, RTX 2080 Ti.
RTX 3080 идет значительно дальше: почти на 50% больше ядер RT и благодаря этому значительно улучшена производительность трассировки лучей. Особенно это заметно при разрешении 4K, где RTX 3080 уже имеет заметное преимущество в производительности.
Скачок для RTX 3090 не столь драматичен, у него на 20% больше ядер RT, чем у RTX 3080. Тем не менее, он все еще более мощный, и в сценариях, которые действительно нагружают графический процессор, например, Minecraft с разрешением 4K со всеми RTX. включенными функциями, RTX 3090 обеспечивает гораздо более плавную и воспроизводимую частоту кадров, чем RTX 3080. но нет никаких сомнений в том, что карты более высокого уровня предлагают более эффективную трассировку лучей в разрешении 4K.
Они хороши для работы и игр
Вся необузданная мощь графических карт этого поколения не только делает RTX 3000 отличной игрой; они также отлично подходят для интенсивного рендеринга и работы с 3D. Если вы работаете в Blender, OctaneRender или VRAY, серия RTX 3000 предлагает значительное улучшение производительности даже по сравнению с графическими картами, ориентированными на рабочие станции, такими как Titan RTX, которые сами по себе стоят тысячи фунтов.
RTX 3070, 3080 и 3090 превосходно подходят для большинства задач, хотя некоторые конкретные задачи, такие как работа с САПР, могут действительно выиграть от ориентирования на рабочую станцию линейки видеокарт Titan.
Если вам нужен графический процессор исключительно для профессиональной работы, важно проверить конкретную производительность этих карт для ваших рабочих приложений. Если вы хотите работать и играть на одном ПК, RTX 3070, 3080 и 3090 — отличные карты практически для всего.
Требования к охлаждению, мощности и размеру
Достаточно одного взгляда на новую линейку видеокарт RTX 3000, и вы легко поймете, что это нечто совершенно отличное от нормы. Они имеют совершенно новый дизайн кулера из всего, что Nvidia выпускала в прошлом.Это особенно верно для более дорогих 3080 и 3090, потому что их кулеры также делают их намного больше, чем даже самые большие карты прошлых лет.
Причиной всего этого являются новые и довольно экстремальные требования к мощности карт RTX 3000.
3070
3070 с мощностью 220 Вт — лучшая из всех, но даже она не сильно уступает по мощности и тепловым требованиям RTX 2080 Ti — предыдущей флагманской карте. Чтобы справиться со всем этим теплом, RTX 3070 имеет конструкцию с двумя вентиляторами и большой радиатор с черными ребрами для превосходного рассеивания тепла.Это приводит к тому, что карта остается относительно тихой как в режиме ожидания, так и при полной нагрузке во время интенсивных игр, а температура остается в разумных пределах — при условии, что у вас есть хороший воздушный поток в системе.
Если вы ищете новый игровой ПК, все игровые ПК Chillblast могут похвастаться отличной вентиляцией корпуса, независимо от того, оснащены ли они RTX 3070 или нет.
3080
С RTX 3080 все становится немного интереснее, поскольку он намного больше, чем RTX 3070, и имеет размеры на четыре сантиметра больше.Это делает ее заметно больше, чем почти любую другую видеокарту, поэтому установка этой карты в некоторые корпуса M-ATX может быть затруднена. Founders Edition по-прежнему имеет двухслотовый кулер, но его конструкция кардинально отличается от традиционных комбинаций вентиляторов радиатора графических процессоров.
В нем используется двухтактная конструкция, при которой самый задний вентилятор вытягивает холодный воздух из-под платы и проходит через внутренний радиатор, в то время как вентилятор на противоположном конце выталкивает теплый воздух сзади или, если он установлен традиционно. , верхняя часть карточки.Это эффективное решение для охлаждения, обеспечивающее впечатляюще низкие температуры. Если вы используете карту в течение длительного времени, уровень шума может увеличиться, но это все же улучшение по сравнению с эталонными картами Nvidia старшего поколения.
Альтернативы сторонних производителей с решениями для охлаждения с тремя вентиляторами и большими радиаторами могут обеспечить лучшую производительность, но это не всегда гарантировано.
В любом случае требуется мощное решение для охлаждения, поскольку RTX 3080 требует до 320 Вт мощности и потенциала охлаждения.Вот почему блок питания мощностью 750 Вт рекомендуется как минимум для любой сборки с RTX 3080. еще более крупный случай. Он почти на три сантиметра длиннее и без того огромного 3080, а также выше и шире. Он использует ту же двухтактную конструкцию кулера, что и 3080, но это карта с тремя слотами, поэтому вам потребуется много места, чтобы разместить ее.
Все три карты эталонной модели RTX 3000 используют новый 12-контактный кабель питания, для подключения которого требуются адаптеры. Центральное расположение разъема немного усложняет прокладку кабелей с картами Nvidia Founders Edition. Сторонние альтернативы используют более традиционные 8-контактные разъемы в более типичных монтажных положениях, что делает их более подходящими для аккуратных систем.
RTX 3070 против 3080 против 3090, какой из них для вас?
Выбор видеокарты является личным выбором, при этом необходимо учитывать множество факторов.Если вам нужна чистая мощность, и вы хотите не только играть, но и работать с новым графическим процессором, RTX 3090 — лучший выбор.
Если вы хотите сэкономить или не хотите играть в 8K, 3080 — более доступное решение, которое не сильно отстает по производительности. Эта карта предлагает настоящую мощность следующего поколения и преимущества уникальной конструкции охлаждения, над которой Nvidia явно потрудилась.
RTX 3070 тоже отличная карта, но она не на том же уровне. С 8 ГБ ОЗУ и производительностью, подобной 2080 Ti, он больше склоняется к тому, чтобы стать лучшей картой 1440p в мире.Он, безусловно, может обрабатывать 4K, но он больше подходит для интенсивной игры с высоким FPS, где это важнее, чем выставлять все настройки детализации.
Он также является самым доступным по цене, а благодаря передовой трассировке лучей и производительности DLSS, если это то, что соответствует вашему бюджету, это гораздо более выгодная покупка, чем альтернативы последнего поколения.
Если вам нужны дополнительные советы по выбору подходящего графического процессора Nvidia RTX серии 3000, позвоните в Chillblast. Один из наших опытных сборщиков систем расскажет вам обо всем, что вам нужно знать, чтобы максимально эффективно использовать следующую модернизацию видеокарты.
Сравнение видеокарт GeForce GTX 1660 Ti и GeForce RTX 2060
В этом сравнении GeForce GTX 1660 Ti и GeForce RTX 2060 вы узнаете, какая видеокарта лучше работает в современных играх. Имейте в виду, что сторонние версии могут иметь более эффективное охлаждение и более высокие тактовые частоты. Это повысит производительность карт, хотя и ненамного. В дополнение к грубой мощности вы также должны принять во внимание размеры. Более толстые модели просто не влезут в маленький корпус mini-ITX.Разрешение вашего монитора также влияет на выбор, так как для игрового процесса 4K требуется более мощный графический процессор. И не переплачивайте за видеокарту. Другие части вашей сборки также могут нуждаться в обновлении, сэкономьте немного денег на процессоре или блоке питания. Для одних лучшим выбором будет GeForce GTX 1660 Ti, для других предпочтительнее GeForce RTX 2060. Изучите сравнительные таблицы ниже и сделайте свой выбор.
Основные характеристики
GeForce GTX 1660 Ti GeForce RTX 2060 Потребляемая мощность (TDP) 120 Вт 160 Вт Интерфейс PCIe 3.0×16 PCIe 3.0 x16 Дополнительные разъемы питания 1x 8-контактный 1x 8-контактный Тип памяти ГДДР6 ГДДР6 Максимальный объем оперативной памяти 6 ГБ 6 ГБ Разъемы дисплея 1x DVI, 1x HDMI, 1x DisplayPort 1x DVI, 1x HDMI, 2x DisplayPort, 1x USB Type-C Проверить цену Проверить цену - GeForce RTX 2060 потребляет на 33% больше энергии, чем GeForce GTX 1660 Ti.
- Обе видеокарты используют интерфейс PCIe 3.0 x16 для подключения к материнской плате.
- GeForce GTX 1660 Ti и GeForce RTX 2060 имеют максимальный объем оперативной памяти 6 ГБ.
- Обе карты используются в настольных компьютерах.
- GeForce GTX 1660 Ti и GeForce RTX 2060 построены на архитектуре Turing.
- Тактовая частота ядра GeForce GTX 1660 Ti на 180 МГц выше, чем у GeForce RTX 2060.
- GeForce GTX 1660 Ti и GeForce RTX 2060 производятся по 12-нм техпроцессу.
- Обе видеокарты имеют одинаковую длину 229 мм.
- Тактовая частота памяти GeForce RTX 2060 на 2000 МГц выше, чем у GeForce GTX 1660 Ti.
Игровые тесты
Assassin’s Creed OdysseyBattlefield 5Call of Duty: WarzoneCounter-Strike: Global OffensiveCyberpunk 2077Dota 2Far Cry 5FortniteForza Horizon 4Grand Theft Auto VMetro ExodusMinecraftPLAYERUNKNOWN’S BATTLEGROUNDSRed Dead Redemption 2The Witcher 3: Wild HuntWorld of Tanks высокое / 1080p 60−65 65−70 ультра / 1080p 40−45 45−50 QHD / 1440p 30−35 40−45 4K / 2160p 20−22 24−27 низкий / 720p 85−90 90−95 средний / 1080p 70−75 75−80 Средний игровой FPS у GeForce RTX 2060 в Assassin’s Creed Odyssey на 9% больше, чем у GeForce GTX 1660 Ti. высокое / 1080p 95−100 100−110 ультра / 1080p 85−90 95−100 QHD / 1440p 65−70 75−80 4K / 2160p 35−40 40−45 низкий / 720p 140−150 150−160 средний / 1080p 100−110 110−120 Средний игровой FPS у GeForce RTX 2060 в Battlefield 5 на 8% больше, чем у GeForce GTX 1660 Ti. низкое / 768p 45−50 45−50 GeForce GTX 1660 Ti и GeForce RTX 2060 имеют одинаковый средний FPS в Call of Duty: Warzone. низкое / 768p 250−260 250−260 средний / 768p 230−240 230−240 QHD / 1440p 150−160 150−160 4K / 2160p 100−110 100−110 высокий / 768p 220−230 220−230 GeForce GTX 1660 Ti и GeForce RTX 2060 имеют одинаковый средний FPS в Counter-Strike: Global Offensive. низкое / 768p 70−75 70−75 средний / 1080p 50−55 50−55 GeForce GTX 1660 Ti и GeForce RTX 2060 имеют одинаковый средний FPS в Cyberpunk 2077. низкое / 768p 120−130 120−130 средний / 768p 110−120 110−120 ультра / 1080p 110−120 − GeForce GTX 1660 Ti и GeForce RTX 2060 имеют одинаковый средний FPS в Dota 2. высокое / 1080p 75−80 85−90 ультра / 1080p 70−75 80−85 QHD / 1440p 50−55 60−65 4K / 2160p 27−30 30−35 низкий / 720p 110−120 110−120 средний / 1080p 80−85 90−95 Средний игровой FPS у GeForce RTX 2060 в Far Cry 5 на 9% больше, чем у GeForce GTX 1660 Ti. высокое / 1080p 110−120 130−140 ультра / 1080p 90−95 100−110 QHD / 1440p 60−65 70−75 4K / 2160p 21−24 21−24 низкий / 720p 240−250 250−260 средний / 1080p 160−170 170−180 Средний игровой FPS у GeForce RTX 2060 в Fortnite на 8% больше, чем у GeForce GTX 1660 Ti. высокое / 1080p 100−110 110−120 ультра / 1080p 80−85 90−95 QHD / 1440p 60−65 70−75 4K / 2160p 40−45 45−50 низкий / 720p 150−160 160−170 средний / 1080p 100−110 120−130 Средний игровой FPS у GeForce RTX 2060 в Forza Horizon 4 на 10% больше, чем у GeForce GTX 1660 Ti. низкое / 768p 170−180 170−180 средний / 768p 160−170 160−170 высокое / 1080p 110−120 120−130 ультра / 1080p 60−65 70−75 QHD / 1440p 50−55 60−65 Средний игровой FPS у GeForce RTX 2060 в Grand Theft Auto V на 5% больше, чем у GeForce GTX 1660 Ti. высокий / 1080p 45−50 55−60 ультра / 1080p 40−45 45−50 QHD / 1440p 30−33 35−40 4K / 2160p 18−20 21−24 низкий / 720p 110−120 120−130 средний / 1080p 65−70 75−80 Средний игровой FPS у GeForce RTX 2060 в Metro Exodus на 15% больше, чем у GeForce GTX 1660 Ti. низкое / 768p 120−130 120−130 GeForce GTX 1660 Ti и GeForce RTX 2060 имеют одинаковый средний FPS в Minecraft. высокое / 1080p 100−110 110−120 ультра / 1080p 75−80 85−90 4K / 2160p 18−20 18−20 низкий / 720p 140−150 140−150 средний / 1080p 110−120 130−140 Средний игровой FPS у GeForce RTX 2060 в PLAYERUNKNOWN’S BATTLEGROUNDS на 8% больше, чем у GeForce GTX 1660 Ti. высокое / 1080p 45−50 50−55 ультра / 1080p 27−30 30−35 QHD / 1440p 24−27 27−30 4K / 2160p 14−16 18−20 низкий / 720p 110−120 120−130 средний / 1080p 70−75 80−85 Средний игровой FPS у GeForce RTX 2060 в Red Dead Redemption 2 на 12% больше, чем у GeForce GTX 1660 Ti. низкий / 768p 220−230 250−260 средний / 768p 150−160 180−190 высокое / 1080p 90−95 100−110 ультра / 1080p 50−55 60−65 4K / 2160p 30−35 40−45 Средний игровой FPS у GeForce RTX 2060 в игре Ведьмак 3: Дикая Охота на 17% больше, чем у GeForce GTX 1660 Ti. низкий / 768p 150−160 200−210 ультра / 1080p 75−80 95−100 Средний игровой FPS у GeForce RTX 2060 в World of Tanks на 30% больше, чем у GeForce GTX 1660 Ti. GeForce GTX 1660 Ti и GeForce RTX 2060
Полные характеристики
GeForce GTX 1660 Ti GeForce RTX 2060 Архитектура Тьюринг Тьюринг Кодовое название Тьюринг TU116 Тьюринг TU106 Тип Рабочий стол Рабочий стол Дата выпуска 22 февраля 2019 г. 6 января 2019 г. Трубопроводы 1536 1920 Тактовая частота ядра 1500 МГц 1320 МГц Повышенная частота 1770 МГц 1620 МГц Количество транзисторов 6 600 миллионов 10 800 миллионов Технология производства 12 нм 12 нм Скорость заполнения текстуры 169.9 201,6 Длина 229 мм 229 мм Разрядность шины памяти 192 Бит 192 Бит Тактовая частота памяти 12000 МГц 14000 МГц Пропускная способность памяти 288,0 ГБ/с 336,0 ГБ/с Общая память — — Поддержка G-SYNC + VR готов + DirectX 12 (12_1) 12 Модель шейдера 6.5 6,5 OpenGL 4,6 4,6 OpenCL 1,2 1,2 Вулкан 1.2.131 1.2.131 CUDA 7,5 7,5 Проверить цену Проверить цену Аппаратное ускорение видео — ArchWiki
Аппаратное ускорение видео позволяет видеокарте декодировать/кодировать видео, тем самым разгружая ЦП и экономя энергию.
В Linux это можно сделать несколькими способами:
- Video Acceleration API (VA-API) — это спецификация и библиотека с открытым исходным кодом для аппаратного ускорения кодирования и декодирования видео, разработанная Intel.
- API декодирования и представления видео для Unix (VDPAU) — это библиотека с открытым исходным кодом и API для переноса части процесса декодирования видео и постобработки видео на аппаратное обеспечение графического процессора, разработанное NVIDIA.
- NVDECODE/NVENCODE — собственные API-интерфейсы NVIDIA для аппаратного ускорения видео, используемые графическими процессорами NVIDIA, начиная с Fermi.
Для видеокарт до 2007 года см. XvMC. Подробный обзор поддержки драйверов и приложений см. в таблицах #Comparison.
Установка
Интел
Графические драйверы Intel с открытым исходным кодом поддерживают VA-API:
См. также поддерживаемое оборудование и функции VAAPI.
NVIDIA
Драйвер с открытым исходным кодомNouveau поддерживает как VA-API, так и VDPAU:
Собственный драйвер NVIDIA поддерживает через nvidia-utils:
АТИ/АМД
ДрайверыATI и AMDGPU с открытым исходным кодом поддерживают как VA-API, так и VDPAU:
- VA-API на Radeon HD 2000 и более новых графических процессорах поддерживается драйвером libva-mesa.
- VDPAU на Radeon R300 и более новых графических процессорах поддерживается mesa-vdpau.
Проприетарный драйвер AMDGPU PRO создан на основе драйвера AMDGPU и поддерживает как VA-API, так и VDPAU.
Слои перевода
- libva-vdpau-driver — Серверная часть на основе VDPAU для VA-API.
- https://cgit.freedesktop.org/vaapi/vdpau-драйвер || libva-vdpau-водитель, libva-vdpau-водитель-хром Aur , libva-vdpau-водитель-vp9-git AUR
-
- — Vdpau-VA-GL — VDPAU Бэкэнд VAAPI.Только H.264.
- https://github.com/i-rinat/libvdpau-va-gl || libvdpau-va-gl
- nvidia-vaapi-driver — серверная часть на основе CUDA NVDECODE для VA-API.
- https://github.com/elFarto/nvidia-vaapi-driver/ || libva-nvidia-driver AUR
Проверка
Ваша система может работать без дополнительной настройки без какой-либо настройки. Поэтому рекомендуется начать с этого раздела, чтобы убедиться, что это так.
Совет:- mpv с поддержкой командной строки отлично подходит для тестирования аппаратного ускорения. Посмотрите журнал
mpv --hwdec=auto video_filename
и см. hwdec для более подробной информации. - Для графического процессора Intel используйте инструменты intel-gpu-tools и запустите
intel_gpu_top
от имени пользователя root, чтобы отслеживать активность графического процессора, например, во время воспроизведения видео. Полоса видео выше 0 % указывает на использование видеодекодера/кодировщика графического процессора. - Для графического процессора AMD используйте radeontop для мониторинга активности графического процессора.В отличие от intel-gpu-tools, в настоящее время нет возможности увидеть использование декодирования/кодирования на radeontop [2].
- Для любого графического процессора можно сравнить загрузку ЦП с помощью такого инструмента, как htop. Особенно для видео с более высоким разрешением (4k+) использование ЦП при включенном VA-API и работе должно быть значительно ниже на ноутбуках и других устройствах с относительно низким энергопотреблением.
Проверка VA-API
Проверьте настройки VA-API, запустив
vainfo
, который предоставляется libva-utils:$ тщетная информация
информация о libva: VA-API версии 0.39,4 информация о libva: va_getDriverName() возвращает 0 Информация о libva: попытка открыть /usr/lib/dri/i965_drv_video.so Информация о libva: найдена функция инициализации __vaDriverInit_0_39 Информация о libva: va_openDriver() возвращает 0 vainfo: Версия VA-API: 0.39 (libva 1.7.3) vainfo: Версия драйвера: Драйвер Intel i965 для Intel(R) Skylake - 1.7.3 vainfo: поддерживаемый профиль и точки входа VAProfileMPEG2Simple : VAEntrypointVLD VAProfileMPEG2Simple : VAEntrypointEncSlice VAProfileMPEG2Main : VAEntrypointVLD VAProfileMPEG2Main : VAEntrypointEncSlice VAProfileh364ConstrainedBaseline: VAEntrypointVLD VAProfileh364ConstrainedBaseline: VAEntrypointEncSlice VAProfileh364ConstrainedBaseline: VAEntrypointEncSliceLP VAProfileh364Main : VAEntrypointVLD VAProfileh364Main : VAEntrypointEncSlice VAProfileh364Main : VAEntrypointEncSliceLP VAProfileh364High : VAEntrypointVLD VAProfileh364High : VAEntrypointEncSlice VAProfileh364High : VAEntrypointEncSliceLP VAProfileh364MultiviewHigh : VAEntrypointVLD VAProfileh364MultiviewHigh : VAEntrypointEncSlice VAProfileh364StereoHigh : VAEntrypointVLD VAProfileh364StereoHigh : VAEntrypointEncSlice VAProfileVC1Simple : VAEntrypointVLD VAProfileVC1Main : VAEntrypointVLD VAProfileVC1Advanced : VAEntrypointVLD VAProfileNone : VAEntrypointVideoProc VAProfileJPEGBaseline : VAEntrypointVLD VAProfileJPEGBaseline : VAEntrypointEncPicture VAProfileVP8Version0_3 : VAEntrypointVLD VAProfileVP8Version0_3 : VAEntrypointEncSlice VAProfileHEVCMain : VAEntrypointVLD VAProfileHEVCMain : VAEntrypointEncSlice
VAEntrypointVLD
означает, что ваша карта способна декодировать этот формат,VAEntrypointEncSlice
означает, что вы можете кодировать в этот формат.В этом примере используется драйвер
i965
, как видно из этой строки:vainfo: Версия драйвера: Драйвер Intel i965 для Intel(R) Skylake — 1.7.3
Если при запуске
vainfo
отображается следующая ошибка:информация о libva: va_openDriver() возвращает -1 Ошибка vaInitialize с кодом ошибки -1 (неизвестная ошибка libva), выход
Вам необходимо настроить правильный драйвер, см. #Настройка VA-API.
Проверка VDPAU
Установите vdpauinfo, чтобы проверить правильность загрузки драйвера VDPAU и получить полный отчет о конфигурации:
$ вдпауинфо
дисплей: :0 экран: 0 Версия API: 1 Информационная строка: Общая библиотека драйверов G3DVL VDPAU версии 1.0 Видео поверхность: имя ширина высота типы ------------------------------------------- 420 16384 16384 НВ12 ЙВ12 422 16384 16384 УЙВЫ ЮЫВ 444 16384 16384 Y8U8V8A8 V8U8Y8A8 Возможности декодера: уровень имени macbs ширина высота -------------------------------------------------- -- MPEG1 --- не поддерживается --- MPEG2_SIMPLE 3 9216 2048 1152 MPEG2_MAIN 3 9216 2048 1152 h364_BASELINE 41 9216 2048 1152 h364_MAIN 41 9216 2048 1152 h364_HIGH 41 9216 2048 1152 VC1_SIMPLE 1 9216 2048 1152 VC1_MAIN 2 9216 2048 1152 VC1_РАСШИРЕННЫЙ 4 9216 2048 1152 ...
Конфигурация
Хотя видеодрайвер должен автоматически включать поддержку аппаратного ускорения видео как для VA-API, так и для VDPAU, может потребоваться настроить VA-API/VDPAU вручную. Переходите к этому разделу, только если вы прошли #Verification.
Имена драйверов по умолчанию, используемые при отсутствии другой конфигурации, угадываются системой. Однако они часто взломаны вместе и могут не работать. Вы можете увидеть предполагаемые значения, запустив:
$ grep -iE 'vdpau | Драйвер драйвера /var/log/Xorg.0.лог
(II) RADEON(0): [DRI2] Драйвер DRI: radeonsi (II) RADEON(0): драйвер [DRI2] VDPAU: radeonsi
В этом случае
Примечание: Если вы используете GDM, запуститеradeonsi
используется по умолчанию как для VA-API, так и для VDPAU.journalctl -b --grep='vdpau | dri driver'
вместо root.Однако это не соответствует конфигурации . Приведенные выше значения не изменятся, даже если вы их переопределите.
Настройка VA-API
Вы можете переопределить драйвер для VA-API, используя переменную среды
Примечание:LIBVA_DRIVER_NAME
:- Установленные драйверы можно найти в
/usr/lib/dri/
.Они используются как/usr/lib/dri/ ${LIBVA_DRIVER_NAME} _drv_video.so
. - Некоторые драйверы устанавливаются несколько раз под разными именами из соображений совместимости. Вы можете узнать, какой именно, запустив
sha1sum /usr/lib/dri/* | сорт
. -
LIBVA_DRIVERS_PATH
можно использовать для переопределения расположения драйверов VA-API. - Начиная с версии 12.0.1 libva-mesa-driver предоставляет
radeonsi
вместогаллия
.
Настройка VDPAU
Драйвер для VDPAU можно переопределить, используя переменную среды
VDPAU_DRIVER
.Правильное имя драйвера зависит от вашей настройки:
- Для графики Intel необходимо установить значение
va_gl
. - Для драйвера AMD с открытым исходным кодом установите правильную версию драйвера в зависимости от вашего графического процессора, см. #Verification.
- Для драйвера Nouveau с открытым исходным кодом установите значение
nouveau
. - Для проприетарной версии NVIDIA установите значение
nvidia
.
- Установленные драйверы можно найти в
/usr/lib/vdpau/
.Они используются как/usr/lib/vdpau/libvdpau_ ${VDPAU_DRIVER} .so
. - Некоторые драйверы устанавливаются несколько раз под разными именами из соображений совместимости. Вы можете увидеть это, запустив
sha1sum /usr/lib/vdpau/*
. - Для гибридных установок (как NVIDIA, так и AMD) может потребоваться установить переменную среды
DRI_PRIME
. Для получения дополнительной информации см. ПРАЙМ.
Настройка приложений
Мультимедийные рамки:
Видеоплееры:
Веб-браузеры:
Поиск и устранение неисправностей
Не удалось открыть серверную часть VDPAU
Вам необходимо установить переменную
VDPAU_DRIVER
, чтобы она указывала на правильный драйвер.См. #Настройка VDPAU.Ошибка инициализации VAAPI
Обнаружена ошибка типа
libva: /usr/lib/dri/i965_drv_video.so ошибка инициализации
. Это может произойти из-за неправильного обнаружения Wayland. Одним из решений является сброс$DISPLAY
, чтобы mpv, MPlayer, VLC и т. д. не предполагали, что это X11. Еще одно решение для mpv — добавить параметр--gpu-context=wayland
.Повреждение или искажение декодирования видео с помощью драйвера AMDGPU
При повреждении или искажении декодирования видео с драйвером AMDGPU установите
allow_rgb10_configs=false
в качестве переменной среды илиdriconf
.[3]Сравнительные таблицы
Драйверы VA-API
Кодек libva-intel-драйвер [4] Intel-медиа-драйвер [5] libva-mesa-драйвер [6] [7] libva-vdpau-driver
(адаптер VDPAU)libva-nvidia-driver AUR
(адаптер NVDECODE)Расшифровка MPEG-2 GMA 4500 и новее Бродвелл и новее Radeon HD 6000 и новее
GeForce 8 и новее 1См. драйверы #VDPAU См. только драйвер #NVIDIA Х.263/MPEG-4 Визуальный 4 Нет Нет Radeon HD 6000 и новее № 6 VC-1 Песчаный мост и новее Бродвелл и новее Radeon HD 2000 и новее
GeForce 9300 и новее 1См. только драйвер #NVIDIA H.264/MPEG-4 AVC GMA 4500 2 , Ironlake и новее Radeon HD 2000 и новее
GeForce 8 и новее 1H.265/HEVC 8 бит Cherryview/Braswell и новее Скайлейк и новее Radeon R9 Fury и новее H.265/HEVC 10 бит Брокстон и новее Broxton/Apollo Lake и новее Radeon 400 и новее № 6 VP8 Бродвелл и новее Бродвелл и новее Нет Нет См. только драйвер #NVIDIA VP9 8 бит Broxton и новее
Hybrid: обновление Haswell до Skylake 3Broxton/Apollo Lake и новее Вороний хребет и новее См. драйверы #VDPAU 5 VP9 10 бит Озеро Каби и новее Озеро Каби и новее Нет № 6 AV1 8-бит и 10-бит Нет Tiger Lake и новее Radeon RX 6000 и новее Экспериментальный 7 Кодирование MPEG-2 Айви Бридж и новее Broadwell и новее
, кроме Broxton/Apollo LakeНет – № 6 Н.264/MPEG-4 AVC Песчаный мост и новее Бродвелл и новее Radeon HD 7000 и новее H.265/HEVC 8 бит Скайлейк и новее Скайлейк и новее Radeon 400 и новее H.265/HEVC 10 бит Озеро Каби и новее Озеро Каби и новее Вороний хребет и новее ВП8 Cherryview/Braswell и новее
Гибрид: от Haswell до Skylake 3Нет VP9 8 бит Озеро Каби и новее Icelake и новее VP9 10 бит Нет - 1 До GeForce GTX 750.
- 2 Вместо этого поддерживается libva-intel-driver-g45-h364 AUR .
- 3 Гибридный кодер VP8 и декодер VP9, поддерживаемые драйвером гибридного кодека Intel AUR .
- 4 MPEG-4 Part 2 по умолчанию отключен из-за ограничений VAAPI. Установите переменную среды
VAAPI_MPEG4_ENABLED=true
, чтобы попытаться использовать ее в любом случае. - 5 Экспериментальная поддержка VP9 вместо этого предоставляется libva-vdpau-driver-vp9-git AUR .
- 6 Поддержка кодеков адаптера NVIDIA CUDA находится в активной разработке и может быть изменена [8].
- 7 Работа не гарантируется. Требуется FireFox 98+ [9].
Драйверы ВДПАУ
Кодек Цвет
Глубинамеса-вдпау [10] [11] утилиты nvidia libvdpau-va-gl
(адаптер VA-API)Расшифровка MPEG-2 8 бит Radeon R300 и новее
GeForce 8 и новее 1GeForce 8 и новее Нет Х.263/MPEG-4 визуальный 8 бит Radeon HD 6000 и новее
GeForce 200 и новее 1GeForce 200 и новее ВК-1 8 бит Radeon HD 2000 и новее
GeForce 9300 и новее 1GeForce 8 и новее 2 H.264/MPEG-4 AVC 8 бит Radeon HD 2000 и новее
GeForce 8 и новее 1GeForce 8 и новее См. драйверы #VA-API Х.265/HEVC 8 бит Radeon R9 Fury и новее GeForce 900 и новее 3 Нет 10 бит Radeon 400 и новее № 4 VP9 8 бит Нет GeForce 900 и новее 3 10 бит Нет № 4 AV1 8 бит Нет GeForce 30 и новее 5 10 бит Нет Нет 4 - 1 До GeForce GTX 750.
- 2 Кроме GeForce 8800 Ultra, 8800 GTX, 8800 GTS (320/640 МБ).
- 3 Кроме GeForce GTX 970 и GTX 980.
- 4 Реализация NVIDIA ограничена 8-битными потоками [12][13].
- 5 Начиная с версии драйвера 510.[14]
Только драйвер NVIDIA
Кодек утилиты нвидиа [15] NVDECODE НВЕНКОД MPEG-2 Fermi и новее 1 Нет ВК-1 Х.264/MPEG-4 AVC Kepler и новее 2 H.265/HEVC 8 бит Maxwell (GM206) и новее Maxwell (2-го поколения) и новее H.265/HEVC 10 бит Паскаль и новее ВП8 Maxwell (2-го поколения) и новее Нет VP9 8 бит Maxwell (GM206) и новее VP9 10 бит Паскаль и новее AV1 8 бит и 10 бит Ampere и новее 3 - 1 Кроме GM108 (не поддерживается)
- 2 Кроме GM108 и GP108 (не поддерживается)
- 3 Кроме A100 (не поддерживается)
Поддержка приложений
- 1 GStreamer использует белый список драйверов VA-API.Чтобы игнорировать белый список, см. GStreamer#Игнорировать белый список драйверов.
- 2 Поддержка VA-API предоставляется mplayer-vaapi AUR вместо этого.
- 3 VDPAU поддерживается только подключаемым модулем NPAPI. Доступен экспериментальный адаптер плагина PPAPI для браузера NPAPI, обеспечивающий частичное ускорение VA-API и VDPAU.
- 4 Только Xorg. Wayland не поддерживается. XWayland демонстрирует изменчивость FS # 67035.
Аппаратное ускорение | АрКаос Про
Получите максимальную отдачу от вашей видеокарты
Программное обеспечениеArKaos поставляется с совершенно новым видеодвижком, который использует возможности новейших графических карт с аппаратным ускорением (тех, которые поддерживают Pixel Shaders II).Все приложения для обработки видео, микширования и эффектов теперь вычисляются в графическом процессоре, что позволяет испытать беспрецедентную визуальную плавность и качество изображения.
Все дело в шейдерах
Благодаря ускоренной мультимедийной технологии Pixel Shaders вся обработка видео, микширование и эффекты теперь вычисляются графической картой с использованием специальных алгоритмов, разработанных для обработки изображений. Это позволяет позиционировать и изменять размер видео, применять к ним расширенные 2D- и 3D-эффекты и смешивать несколько слоев вместе с люминесцентным/хроматическим ключом, а также множеством различных режимов копирования.. Все это в режиме реального времени и с очень высоким качеством изображения, позволяющим проецировать на большие экраны высшего качества!
Преимущества
Вся обработка изображений выполняется с помощью графического процессора*: у ЦП* есть больше времени для другой тяжелой обработки, такой как декомпрессия видео; это приводит к гораздо лучшей частоте кадров и визуальной плавности.
Вся обработка видео выполняется в полном разрешении и использует аппаратную фильтрацию текстур, которая устраняет пиксельные артефакты даже в видео с низким разрешением; качество изображения значительно улучшается.
*ГП — это процессор вашей графической карты, в отличие от ЦП — Блок процессора компьютера — который является основным процессором вашего компьютера.
Аппаратное ускорение, технический разговор
При использовании аппаратной конвейерной обработки графического процессора, а не стандартной обработки ЦП, подход к обработке изображений становится радикально другим: каждое изображение или видео эквивалентно текстуре в видеопамяти; одновременное обновление нескольких видео потребляет большую часть полосы пропускания данных шины AGP/PCI-X.Движок ArKaos сводит эту полосу пропускания к минимуму для достижения максимально возможной частоты кадров.
Каждая обработка изображения выполняется с использованием текстуры в качестве исходных данных: ее можно легко смешивать с другими текстурами, а затем масштабировать, растягивать и деформировать с помощью геометрических сеток. Таким образом, попиксельная/вершинная обработка полностью меняет способ работы с изображением.
Пиксельные шейдерыобеспечивают расширенную обработку изображений за минимальное время разработки благодаря попиксельной обработке, тогда как вершинные шейдеры позволяют использовать расширенные световые эффекты и деформацию объемов благодаря повершинной обработке.
Использование аппаратной фильтрации текстур в GrandVJ позволяет получать изображения необычайно высокого качества. Более того, все обработки выполняются в полном разрешении, благодаря чему пикселизация исчезает даже с видео с низким разрешением.
Дополнительная информация
Если вам нужна дополнительная информация об аппаратном ускорении в программном обеспечении ArKaos, ознакомьтесь с документацией в формате PDF, которая находится в папке установки программного обеспечения.
.
-
Ваш комментарий будет первым