Нажмите "Enter", чтобы перейти к содержанию

Сравнительная таблица видеокарт: Сравнительная таблица производительности видеокарт

Содержание

Сравнительная таблица видеокарт- май 2015 – gotoADM.ru

Сравнительная таблица видеокарт
nVidiaAMDIntel
Дискретная: GeForce GTX Titan ZДискретная: Radeon R9 295X2
Дискретная: GeForce GTX 690, GeForce GTX Titan XRadeon HD 7990
Дискретная: GeForce GTX 780 Ti, 980, Titan Black
Дискретная: GeForce GTX 780, 970, GeForce GTX TitanДискретная: Radeon R9 290, Radeon R9 290X
Дискретная: GTX 590, GTX 680, GeForce GTX 770
Go (мобильная): 980M
Дискретная: HD 6990, Radeon HD 7970 GHz Edition, Radeon R9 280X
Дискретная: GTX 580, GeForce GTX 670, GeForce GTX 960
Go (мобильная): 970M
Дискретная: HD 5970, Radeon HD 7870 LE (XT), Radeon HD 7950, Radeon R9 280, 285
Дискретная: GTX 660 Ti, GeForce GTX 760
Go (мобильная): 880M
Дискретная: Radeon HD 7870, Radeon R9 270, Radeon R9 270X
Дискретная: GTX 295, 480, 570, GeForce GTX 660
Go (мобильная): 680M, 780M
Дискретная: HD 4870 X2, 6970, Radeon HD 7850, Radeon R7 265
Мобильная: 7970M
Дискретные: GTX 470, 560 Ti, 560 Ti 448 Core, GeForce 650 Ti Boost, GeForce GTX 750 Ti Дискретная: HD 4850 X2, 5870, 6950, Radeon R7 260X
Мобильная: 7950M
Дискретная: GTX 560, GeForce GTX 650 Ti, GeForce GTX 750
Go (mobile): 580M, 675M
Дискретная: HD 5850, 6870, 6930, Radeon HD 7790,
Mobility: 6990M
Дискретная: 9800 GX2, 285, 460 256 бит, 465Дискретная: HD 6850, Radeon HD 7770, Radeon R7 260
Mobility: 6900M
Дискретная: GTX 260, 275, 280, 460 192 бит, 460 SE, 550 Ti, 560 SE, 650, GT 740 GDDR5
Go (mobile): 570M, 670M
Дискретная: HD 4870, 5770, 4890, 5830, 6770, 6790, 7750 (GDDR5), R7 250 (GDDR5)
Mobility: HD 5870, 6800M
Дискретная: 8800 Ultra, 9800 GTX, 9800 GTX+, GTS 250, GTS 450
Go (mobile): 560M, 660M
Дискретная: HD 3870 X2, 4850, 5750, 6750, 7750 (DDR3), R7 250 (DDR3)
Mobility: HD 4850, 5850, 7870M
Дискретная: 8800 GTX, 8800 GTS 512 Mбайт, GT 545 (GDDR5), GT 730 64-bit GDDR5
Go (mobile): GTX 280M, 285M, 555M (GDDR5)
Дискретная: HD 4770
Mobility: HD 4860, 7770M, 7850M
Дискретная: 8800 GT 512 Mбайт, 9800 GT, GT 545 (DDR3), GeForce GTX 640 (DDR3), GT 740 DDR3
Go (mobile): 9800M GTX, GTX 260M (112), GTS 360M (GDDR5), 555M (DDR3)
Дискретная: HD 4830, HD 5670, Radeon HD 6670 (GDDR5), Radeon HD 7730 (GDDR5)
Mobility: HD 5770, HD 5750, 6600M/6700M (GDDR5), 7750M
Дискретная: 8800 GTS 640 Mбайт, 9600 GT, GT 240 (GDDR5)
Go (mobile): 9800M GTS, GTX 160M
Дискретная: HD 2900 XT, HD 3870, HD 5570 (GDDR5), Radeon HD 6570 (GDDR5)
Mobility: HD 6500M (GDDR5), 6600M/6700M (DDR3), 7730M
Дискретная: 8800 GS, 9600 GSO, GT 240 (DDR3)
Go (mobile): GTX 260M (96), GTS 150M, GTS 360M (DDR3)
Дискретная: HD 3850 512 Mбайт, HD 4670, HD 5570 (DDR3), Radeon HD 6570 (DDR3), Radeon HD 6670 (DDR3), HD 7730 (DDR3), R7 240
Mobility: HD 3870, HD 5730, HD 5650, HD 6500M (DDR3)
Дискретная: 8800 GT 256 Mбайт, 8800 GTS 320 Mбайт, GT 440 GDDR5, GT 630 GDDR5, GT 730 128-bit GDDR5
Go (mobile): 8800M
Дискретная: HD 2900 PRO, HD 3850 256 Mбайт, 5550 (GDDR5)
Mobility: HD 3850
Дискретная: 7950 GX2, GT 440 DDR3, GT 630 DDR3, GT 730 128-bit DDR3Дискретная: X1950 XTX, HD 4650 (DDR3), 5550 (DDR3)
Integrated: HD 7660D
Дискретная: 7800 GTX 512, 7900 GTO, 7900 GTX, GT 430, GT 530
Go (mobile): 550M
Дискретная: X1900 XT, X1950 XT, X1900 XTX
Дискретная: 7800 GTX, 7900 GT, 7950 G, GT 220 (DDR3)
Go (mobile): 525M, 540M
Дискретная: X1800 XT, X1900 AIW, X1900 GT, X1950 PRO, HD 2900 GT, HD 5550 (DDR2)
Integrated: HD 7560D
Дискретная: 7800 GT, 7900 GS, 8600 GTS, 9500 GT (GDDR3), GT 220 (DDR2)
Go (mobile): 7950 GTX
Дискретная: X1800 XL, X1950 GT, HD 4650 (DDR2), HD 6450
Mobility: X1800 XT, HD 4650, HD 5165, 6400M
Integrated: 6620G, 6550D, 7540D
Дискретная: 6800 Ultra, 7600 GT, 7800 GS, 8600 GS, 8600 GT (GDDR3), 9500 GT (DDR2)
Go (mobile): 7800 GTX, 7900 GTX
Дискретная: X800 XT (& PE), X850 XT (& PE), X1650 XT, X1800 GTO, HD 2600 XT, HD 3650 (DDR3), HD 3670
Mobility: X1900, 3670
Integrated: 6520G, 6530D, 7480D
Интегрированная: Intel HD Graphics 4000
Дискретная: 6800 GT, 6800 GS (PCIe), 8600 GT (DDR2), GT 520
Go (mobile): 7800, Go 7900 GS, 520M, 520MX
Дискретная: X800 XL, X800 GTO2/GTO16, HD 2600 PRO, HD 3650 (DDR2)
Mobility: X800 XT, HD 2600 XT, 3650
Integrated: 6410D, 6480G
Дискретная: 6800 GS (AGP)
Go (mobile): 6800 Ultra, 7600 GT, 8600M GT, 8700M GT, 410M
Дискретная: X800 GTO 256 Mбайт, X800 PRO, X850 PRO, X1650 GT
Mobility: HD 2600
Integrated: 6370D, 6380G
Дискретная: 6800, 7300 GT GDDR3, 7600 GS, 8600M GS
Go (mobile): 6800, 7700
Дискретная: X800, X800 GTO 128 Mбайт, X1600 XT, X1650 PRO
Mobility: X1800, HD 5145, HD 5470 (GDDR5)
Дискретная: 6600 GT, 6800LE, 6800 XT, 7300 GT (DDR2), 8500 GT, 9400 GT
Go (mobile): 7600 (128-bit)
Дискретная: 9800 XT, X700 PRO, X800 GT, X800 SE, X1300 XT, X1600 PRO, HD 2400 XT, HD 4350, HD 4550, HD 5450
Mobility: X800, 3470, HD 5470 (DDR3), HD 5450, HD 5430, 6300M
Integrated: HD 6310, HD 6320
Intel HD Graphics 3000
Дискретная: FX 5900, FX 5900 Ultra, FX 5950 Ultra, 6600 (128-bit)
Go (mobile): 6800 (128-bit)
Integrated: 9300, 9400
Дискретная: 9700, 9700 PRO, 9800, 9800 PRO, X700, X1300 PRO, X1550, HD 2400 PRO
Mobility: X1450, X1600, X1700, 2400 XT, X2500, 3450
Integrated: HD 3200, HD 3300, HD 4200, HD 4250, HD 4290, HD 6250, HD 6290
Дискретная: FX 5800 Ultra, FX 5900 XT
Go (mobile): 6600, Go 7600 (64-bit)
Дискретная: 9500 PRO, 9600 XT, 9800 PRO (128-bit), X600 XT, X1050 (128-bit)
Mobility: 9800, X700, X1350, X1400, X2300, HD 2400
Intel HD Graphics (Core i5-6×1), 2000
Дискретная: 4 Ti 4600, 4 Ti 4800, FX 5700 Ultra, 6200, 8300, 8400 G, G 210, G 310
Go (mobile): 315M
Дискретная: 9600 PRO, 9800 LE, X600 PRO, HD 2300
Mobility: 9700 (128-bit), X600, X1300
Integrated: Xpress 1250
Intel HD Graphics (Core i3 5×0, Core i5-6×0)
Дискретная: 4 Ti4200, 4 Ti4400, 4 Ti4800 SE, FX 5600 Ultra, FX 5700, 6600 (64-bit), 7300 GS, 8400M GS, 9300M G, 9300M GSДискретная: 9500, 9550, 9600, X300, X1050 (64-bit)
Mobility: 9600
Intel HD Graphics (Pentium G)
Дискретная: 3 Ti500, FX 5200 Ultra, FX 5600, FX 5700 LE, 6200 TC, 6600 LE, 7200 GS, 7300 LE
Go (mobile): 5700, 8200M, 9200M GS, 9100
Integrated: 8200, 8300
Дискретная: 8500, 9100, 9000 PRO, 9600 LE, X300 SE, X1150
Mobility 9700 (64-bit)
GMA X4500
Дискретная: 3, 3 Ti200, FX 5200 (128-bit), FX 5500
Go (mobile): 5600, 6200, 6400, 7200, 7300, 7400 (64-bit)
Дискретная: 9000, 9200, 9250
Mobility: 9600 (64-bit), X300
Дискретная: FX 5200 (64 bit)
Go (mobile): 7200, 7400 (32-bit)
Integrated: 6100, 6150, 7025, 7050
Дискретная: 9200 SE
Integrated: Xpress 200M, Xpress 1000, Xpress 1150
GMA X3000, X3100, X3500
Дискретная: 2 GTS, 4 MX 440, 2 Ultra, 2 Ti, 2 Ti 200Дискретная: 7500GMA 3000, 3100
Дискретная: 256, 2 MX 200, 4 MX 420, 2 MX 400Дискретная: SDR, LE, DDR, 7000, 7200GMA 500, 900, 950
Дискретная: nVidia TNTДискретная: Rage 128Intel 740

Сравнительная таблица видеокарт NVidia Quadro FX


 

18.09.2013

 

Модель Кодовое имя Тех-
процесс (нм)
ИнтерфейсВвода/вывода Объём
видеопамяти (Мб)
Частота ядра (МГц) Частота шейдерного домена (МГц) Частота памяти (эффективная) (МГц) Конфигурация ядра  Пиковая скорость заполнения Память Теоретическая производительность
(Гигафлопс)
поддерживаемыйAPI (версия)
TDP(Вт)
Замечания
(гига-
пикселей/с)
(гига-
текселей/с)
Пропускная способность (Гб/с) Тип Шина (бит) Одинарная точность DirectX OpenGL
Quadro NV10GL 220 AGP 4x 64 135 135 166 0.5:4:4:4 0.54 0.54 2.66 SDR 128   7 1.2
 
 
Quadro2 MXR NV11GL 180 AGP 4x 64 175 175 183 0.5:2:4:4 0.7 0.7 2.93 SDR 128   7 1.2    
Quadro2 EX NV11GL 180 AGP 4x 64 175 175 166 0.5:2:4:4 0.7 0.7 2.7 SDR 128   7 1.2    
Quadro2 PRO NV15GL 150 AGP 4x 64 250 250 400 0.5:4:8:8 2 2 6.4 DDR 128   7 1.2    
Quadro DCC NV20GL 180 AGP 4x 128 200
200
460 1:4:8:8 1.6 1.6 7.4 DDR 128   8 1.4    
Quadro4 380XGL NV18GL 150 AGP 8x 128 275 275 513 0.5:2:4:4 1.1 1.1 8.2 DDR 128   7 1.4    
Quadro4 500XGL NV17GL 150 AGP 4x 128 250 250 166 0.5:2:4:4 1 1 2.7 SDR 128   7 1.4    
Quadro4 550XGL NV17GL 150 AGP 4x 64 270 270 400 0.5:2:4:4 1.08 1.08 6.4 DDR 128
 
7 1.4    
Quadro4 580XGL NV18GL 150 AGP 8x 64 300 300 400 0.5:2:4:4 1.2 1.2 6.4 DDR 128   7 1.4    
Quadro4 700XGL NV25 150 AGP 4x 64 275 275 550
2:4:8:8
2.2 2.2 8.8 DDR 128   8 1.4    
Quadro4 750XGL NV25 150 AGP 4x 128 275 275 550 2:4:8:8 2.2 2.2 8.8 DDR 128   8 1.5   Stereo Display
Quadro4 900XGL NV25
150
AGP 4x 128 300 300 650 2:4:8:8 2.4 2.4 10.4 DDR 128   8 1.4   Stereo Display
Quadro4 980XGL NV28GL 150 AGP 8x 128 300 300 650 2:4:8:8 2.4 2.4 10.4 DDR 128  
8
1.4   Stereo Display
Quadro FX 500 NV34GL 150 AGP 8x 128 270 270 480 1:2:2:2
*:4:4:4
1.08 1.08 7.687 DDR 128   9.0 2.0   Stereo Display
Quadro FX 600 NV34GL 150 PCI 256 350 350
800
1:2:2:2
*:4:4:4
1 1 7.8 DDR 128   9.0 2.0   Stereo Display
Quadro FX 700 NV35GL 150 AGP 8x 128 275 275 275 1:2:2:2
*:4:4:4
1.1 1.1 4.4 DDR 128   9.0 2.0   Stereo Display
Quadro FX 1000 NV30GL 130 AGP 8x 128 300 300 300 2:4:8:8 2.4 2.4 9.6 DDR2 128   9.0 2.0   Stereo Display
FX 1100 NV36GL 130 AGP 8x 256 425 425 325 3:2:2:2
*:4:4:4
1.7 1.7 5.2 DDR2 128   9.0 2.0   Stereo Display
Quadro FX 2000 NV30GL 130 AGP 8x 128 400 400 800 2:4:8:8 3.2 3.2 12.8 DDR2 128   9.0 2.0   Stereo Display
Quadro FX 3000 NV35GL 130 AGP 8x 256 400 400 850 3:4:8:8 3.2 3.2 27.2 DDR 256   9.0 2.0   Stereo Display
Quadro FX 3000G NV35GL 130 AGP 8x 256 400 400 850 3:4:8:8 3.2 3.2 27.2 DDR 256   9.0 2.0   Stereo Display,Genlock
Quadro FX 4000 NV40GL 130 AGP 8x 256 375 375 1000 5:12:12:8 3 4.5 32.0 GDDR3 256   9.0c 2.1   Stereo Display
Quadro FX 4000 SDI NV40GL 130 AGP 8x 256 375 375 1000 5:12:12:8 3 4.5 32.0 GDDR3 256   9.0c 2.1   Stereo Display, Genlock
Quadro FX 330 NV37GL 150 PCIe x16 64 250 250 400 2:4:4:2 1 1 3.2 DDR 128   9.0 2.5 21  
Quadro FX 330 G72GL 90 PCIe x16 128 550 550 810 3:4:4:2 1.1 1.1 6.48 DDR2 128   9.0 2.5 21  
Quadro FX 370 G86 80 PCIe x16 256 360 720 1000 16:8:4 1.44 2.88 6.4 DDR2 64 34.56 10 3.0 35  
Quadro FX 370LP G86 80 PCIe x16 256 540 1080 1000 8:8:4 2.16 4.32 8 DDR2 64 25.92 10 3.0 25 DMS-59 for two Single Link DVI
Quadro FX 380 G96 65 PCIe 2.0 x16 256 450 1100 1400 16:8:8 3.6 3.6 22.4 GDDR3 128 52.8 10 3.0 34 Two Dual Link DVI, no DisplayPort
Quadro FX 380LP GT218GL 40 PCIe 2.0 x16 512 589 1402 1600 16:8:4 2.356 4.712 12.8 GDDR3 64 67.296 10.1 3.2 28 DisplayPort, Dual Link DVI
Quadro FX 470 MCP7A-U 65 PCIe 2.0 x16
(Integrated)
Up to 256MB from system memory. 580 1400 800
(system memory)
16:8:4 2.32 4.64 12.8 DDR2 128 67.2 10 3.2 30 based on GeForce 9400 mGPU
Quadro FX 540 NV43GL 90 PCIe x16 128 300 300 550 4:8:8:8 2.4 2.4 8.8 GDDR3 128   9.0c 2.1 35  
Quadro FX 550 NV43GL 90 PCIe x16 128 360 360 800 4:8:8:8 2.88 2.88 12.8 GDDR3 128   9.0c 2.1 25  
Quadro FX 560 G73GL 90 PCIe x16 128 350 350 1200 5:12:12:8 2.8 4.2 19.2 GDDR3 128   9.0c 2.1 30  
Quadro FX 570 G84GL 80 PCIe x16 256 460 920 800 16:8:8 3.68 3.68 12.8 DDR2 128 44.1 10 3.0 38  
Quadro FX 580 G96 65 PCIe 2.0 x16 512 450 1125 1600 32:16:8 3.6 7.2 25.6 GDDR3 128 108 10 3.0 40 Dual DisplayPort, Dual Link DVI
Quadro FX 1300 NV41 130 PCIe x16 128 350 350 550 3:8:8:8 2.8 2.8 8.8 DDR 256   9.0 1.5 55  
Quadro FX 1400 NV41 130 PCIe x16 128 350 350 600 5:12:12:8 2.8 4.2 19.2 DDR 256   9.0c 2.1 70 Stereo Display, SLI
Quadro FX 1500 G71 90 PCIe x16 256 375 375 800 7:20:20:16 6 7.5 40.0 GDDR3 256   9.0c 2.1 65  
Quadro FX 1700 G84GL 80 PCIe x16 512 460 920 800 32:16:8 3.68 7.36 12.8 DDR2 128 88.32 10 3.2 42  
Quadro FX 1800 G100GL-U(G94) 65 PCIe 2.0 x16 768 550 1375 1600 64:32:12 6.6 17.6 38.4 GDDR3 192 264 10 3.2 59 Stereo DP Dual Link DVI, Dual DisplayPort,SLI
Quadro FX 3400 NV45GL 130 PCIe x16 256 350 350 900 6:16:16:16 5.6 5.6 28.8 GDDR3 256   9.0c 2.1 101 Stereo display,SLI
Quadro FX 3450 NV41 130 PCIe x16 256 425 425 1000 5:12:12:8 3.4 5.1 32.0 GDDR3 256   9.0c 2.1 83 Stereo display,SLI
Quadro FX 3500 G71GL 90 PCIe x16 256 470 470 1320 7:20:20:16 7.52 9.4 42.2 GDDR3 256   9.0c 2.1 80 Stereo display,SLI
Quadro VX 200 G92 65 PCIe 2.0 x16 512 500 1250 1600 112:56:16 28 12.72 51.2 GDDR3 256 420 10 2.1 78 2× Dual-link DVI, optimised for Autodesk AutoCAD
Quadro FX 3700 G92 65 PCIe 2.0 x16 512 500 1250 1600 112:56:16 28 12.72 51.2 GDDR3 256 420 10 2.1 78 Stereo display,SLI
Quadro FX 3800 GT200GL 55 PCIe 2.0 x16 1024 602 1204 1600 192:64:16 9.632 38.528 51.2 GDDR3 256 693.504 10 3.2 108 Stereo DP Dual Link DVI, Dual DisplayPort,SLI
Quadro FX 4500 G70 110 PCIe x16 512 470 470 1050 8:24:24:16 7.52 11.28 33.6 GDDR3 256   9.0c 2.1 109 Stereo display,SLI, Genlock
Quadro FX 4500X2 G70 110 PCIe x16 1024 470 470 1050 16:48:48:32 15.04 22.56 33.6 GDDR3 256   9.0c 2.1 145 Stereo display, Genlock
Quadro FX 4500 SDI G70 110 PCIe x16 512 470 470 1050 8:24:24:16 7.52 11.28 33.6 GDDR3 256   9.0c 2.1 116 Stereo display, Genlock
Quadro FX 46002 G80 90 PCIe x16 768 500 1200 1400 96:24:24 12 24 67.2 GDDR3 384 345 10 3.1 134 Stereo display,SLI, Genlock
Quadro FX 4600 SDI2 G80 90 PCIe x16 768 500 1200 1400 96:24:24 12 24 67.2 GDDR3 384 345 10 3.1 154 Stereo display,SLI, Genlock
Quadro FX 4700X2 2xG92 65 PCIe 2.0 x16 2×1024 500 1250 1600 2x(128:64:16) 2×8 2×32 2×51.2 GDDR3 2×256 2×480 10 3.2 226  
Quadro CX GT200GL 55 PCIe 2.0 x16 1536 602 1204 1600 192:64:24 14.448 38.528 76.8 GDDR3 384 693.504 10 3.2 150 Display Port and dual-link DVI Output, optimised forAdobe Creative Suite 4
Quadro FX 4800 GT200GL 55 PCIe 2.0 x16 1536 602 1204 1600 192:64:24 14.448 38.528 76.8 GDDR3 384 693.504 10 3.2 150 Stereo DP Dual Link DVI, Dual DisplayPort,SLI
Quadro FX 5500 G71 90 PCIe x16 1024 700 700 1050 8:24:24:16 11.2 16.8 33.6 GDDR3 256   9.0c 2.1 96 Stereo display,SLI, Genlock
Quadro FX 5500 SDI G71 90 PCIe x16 1024 700 700 1050 8:24:24:16 11.2 16.8 33.6 GDDR3 256   9.0c 2.1 104 Stereo display,SLI, Genlock
Quadro FX 56002 G80 90 PCIe 2.0 x16 1536 600 1350 1600 128:32:24 14.4 38.4 76.8 GDDR3 384 518.4 10.0 3.2 171 Stereo display,SLI, Genlock
Quadro FX 5800 GT200GL 55 PCIe 2.0 x16 4096 648 1296 1600 240:80:32 20.736 51.840 102.4 GDDR3 512 933.12 10 3.2 189 Stereo DP two Dual Link DVI, DisplayPort,SLI
Quadro 600 GF108GL 40 PCIe 2.0 x16 1024 640 1280 1600 96:164:4 2.56 10.24 25.6 DDR3 128 245.76 11 4.1 40 DisplayPort, Dual Link DVI
Quadro 2000 GF106GL 40 PCIe 2.0 x16 1024 625 1250 2600 192:324:16 10 20 41.6 GDDR5 128 480 11 4.1 62 Stereo DP Dual Link DVI, Dual DisplayPort
Quadro 4000 GF100 40 PCIe 2.0 x16 2048 475 950 2800 256:324:32 15.2 15.2 89.6 GDDR5 256 486.4 11 4.1 142  
Quadro 5000 GF100 40 PCIe 2.0 x16 2560 513 1026 3000 352:444:40 20.53 22.572 120 GDDR5 320 722.304 11 4.1 152  
Quadro 6000 GF100 40 PCIe 2.0 x16 6144 574 1148 3000 448:564:48 27.552 32.144 144 GDDR5 384 1028.608 11 4.1 225  
Модель Кодовое имя Тех-
процесс (нм)
ИнтерфейсВвода/вывода Объём
видеопамяти (Мб)
Частота ядра (МГц) Частота шейдерного домена (МГц) Частота памяти (эффективная) (МГц) Конфигурация ядра (гига-
пикселей/с)
(гига-
текселей/с)
Пропускная способность (Гб/с) Тип Шина (бит) Одинарная точность DirectX OpenGL TDP(Вт) Замечания
Пиковая скорость заполнения Память Теоретическая производительность
Гигафлопс
поддерживаемыйAPI (версия)
 

 

Получайте новости с indpc на почту

amd radeon graphics processor спецификация

На чтение 3 мин. Просмотров 133 Опубликовано

Иерархия видеокарт AMD и Nv >

Видеокарта Asus nVidia GeForce GTX 1050 Ti – дешевле не бывает!

Как насчёт тех видеокарт, которых нет в списке наших рекомендаций в обзоре ” Лучшая видеокарта для игр: текущий анализ рынка “? Стоит ли их покупать или нет?

Подобные вопросы вполне уместны, поскольку доступность разных моделей и цены на них меняются ежедневно. Как узнать, будет ли видеокарта, на который вы положили глаз, лучшей покупкой в данном ценовом диапазоне?

Мы решили помочь вам в этом нелёгком деле, представив таблицу иерархии видеокарт AMD и Nv >

Иерархия видеокарт AMD и Nv >Nv >AMD Radeon RX Vega 64 и Nv >От них не сильно отстают GeForce GTX 1070 Ti, Radeon RX Vega 56 и GeForce GTX 1070, которые также способны показать отличную частоту кадров в разрешении 2560 х 1440. Кроме того все три прекрасно совместимы со шлемами виртуальной реальности.

Карты Radeon RX 580, GeForce GTX 1060 (6GB), GeForce GTX 1060 (3GB) и Radeon RX 570 превосходно ведут себя с играми в разрешении 1920 х 1080. Кроме того, они вполне работоспособны и в разрешении 2560 х 1440 при условии снижения уровня настроек. Однако стоит помнить о том, что ограниченный объём памяти, как например, 3 Гбайта у карты GeForce GTX 1060, может привести к серьёзным проблемам с производительностью на более высоких разрешениях. Кака правило, эта модель быстрее, чем Radeon RX 570, но на разрешениях не выше 1920 х 1080.

То же касается и карт ступенькой ниже, где GeForce GTX 1050 оказывается медленнее Radeon RX 560 на высоких разрешениях из-за всего 2 Гбайт видеопамяти, так что эти карты больше подходят для игр в 1920 х 1080 и 1280 х 720.

Наконец, бюджетный сегмент текущего поколения лучше всех представляют Radeon RX 550 и GeForce GT 1030, производительности которых достаточно для популярных киберспортивных игр.

Процессоры AMD со встроенной графикой – это отличная возможность собрать игровой компьютер без использования дискретной видеокарты. Встроенное видео AMD всегда отличалось достаточно высокой производительностью, по сравнению со «встройками» других производителей. Да, AMD одно время делали ставку на, так называемые, APU (Accelerated Processing Unit). Смысл был в том, что встроенное GPU в APU должно было помогать центральному процессору с вычислениями общего назначения. Однако эта идея не возымела должного распространения. Тем не менее, компания AMD является одним из крупнейших производителей видеокарт, поэтому логично, что в современные процессоры AMD интегрированы достаточно мощные графические чипы AMD RADEON, в том числе RADEON RX Vega в процессорах Ryzen. Есть процессоры AMD со встроенными видеокартами попроще, которые хоть не обладают по-настоящему игровой производительностью, но могут дать вам великолепную картинку в высоком разрешении и возможность без проблем играть в казуальные игры или другие не очень требовательные к графике приложения.

Описание

AMD начала продажи Radeon R4 Graphics 11 июня 2014. Это десктопная видеокарта на архитектуре GCN 2.0 и техпроцессе 28 нм, в первую очередь рассчитанная на геймеров.

С точки зрения совместимости это встроенная видеокарта. Для подключения не требуется дополнительный кабель питания, а потребляемая мощность – 15 Вт.

У нас нет данных о результатах тестирования Radeon R4 Graphics.

Иерархия видеокарт AMD и Nvidia: сравнительная таблица

Сколько майнят видеокарты — сравнительная таблица данных по mh/s | Блог А. Кремера

Недавно на волне общего ажиотажа задумался о майнинге эфира. Что делать думал я, когда в магазинах почти нет видеокарт и оставался только неликвид, начал смотреть сколько какая видеокарта выдает мегахэйша и сколько может намайнить. Приважу вам таблицу, доблестно нарытую в RUнете. Если вы хотите заняться майнингом и не знаете сколько mh/s можно выжать из видюхи и сколько  можно заработать на видеокарте — эта статья для вас.

Заводим кошелёк для криптовалют

Я ранее писал об этом, поэтому детально останавливаться не буду. Скажу одно, вам следует завести его, можно на https://ru.cryptonator.com или https://exmo.me.

Купить эфир на бирже

  1. https://x-pay.cc
  2. https://xchange.cash
  3. https://exmo.me
  4. https://100monet.pro

Сколько можно заработать Эфира (

Ethash) на видеокартах

Оборудование

Ethash (MH)

Руб/мес

Equihash (H)

NeoScrypt (kH)

Pascal (MH)

X11Ghost (MH)
AMD Radeon R9 280X14.5
220 W
4199290
230 W
490
250 W
580
250 W
2.9
200 W
AMD Radeon R9 38020
145 W
5792200
130 W
350
145 W
480
145 W
2.5
120 W
AMD Radeon RX 47026
120 W
7530250
110 W
550
160 W
560
120 W
5.3
125 W
AMD Radeon RX 48029
135 W
8399290
120 W
650
200 W
700
135 W
6.7
140 W
NVIDIA Geforce GTX 750 Ti0.5
45 W
75575
55 W
220
75 W
200
55 W
2
55 W
NVIDIA Geforce GTX 107028.5
105 W
8254410
120 W
1050
155 W
900
120 W
10.5
120 W
AMD Radeon R9 Fury Nano26.2
180 W
7588455
200 W
500
160 W
950
270 W
4.5
140 W
AMD Radeon R9 290X25.75
350 W
7457350
350 W
750
350 W
3.8
NVIDIA Geforce GTX 108027.63
180 W
8002470
180 W
1300
180 W
16.2
AMD Radeon RX 57024
160 W
6951312
160 W
730
160 W
7.4
160 W
AMD Radeon RX 580 8GB26.7
190 W
7732310
190 W
860
190 W
8.5
190 W
AMD Radeon RX 580 4GB22.4
150 W
6487280
150 W
800
150 W
8.2
150 W
NVIDIA Geforce GTX 1080 Ti35
250 W
10100630
250 W
1760
250 W
16.2
250 W
NVIDIA Geforce GTX 1050 102900144
60 W
290
60 W
280
60 W
4
60 W
NVIDIA Geforce GTX 1050 Ti12.6
70 W
3657157
70 W
360
70 W
360
70 W
4.5
70 W
NVIDIA Geforce GTX 1060 6GB20.2
100 W
5862282
100 W
700
100 W
660
100 W
8.6
100 W
AMD Radeon RX 460 4GB10.7
80 W
3100110
80 W
300
80 W
2.8
80 W
AMD Radeon R9 290X26
350 W
7546350
350 W
750
350 W
3.8
350 W
NVIDIA Geforce GTX 960142
100 W
390
100 W
360
100 W
4.8
100 W
NVIDIA Geforce GTX 97022.2
150 W
6444291
150 W
680
150 W
570
150 W
7.7
150 W
NVIDIA Geforce GTX 98021
220 W
6095313
220 W
740
220 W
650
220 W
8.8
220 W
NVIDIA Geforce GTX 980 Ti22
250 W
6385460
250 W
1000
250 W
980
250 W
13.3
250 W
AMD Radeon R9 38018
220 W
5224169
220 W
270
220 W
550
220 W
2.5
220 W
AMD Radeon R9 380X21
250 W
6095175
250 W
600
250 W
2.8
250 W
AMD Radeon R9 39030
300 W
8707380
300 W
750
300 W
3.4
300 W

Как вы видите, самая доходная карта NVIDIA Geforce GTX 1080 Ti, самая невыгодная для майнинга эфира NVIDIA Geforce GTX 750 Ti. Удачи вам в майнинге Эфириума.

Я к слову, та и не купил видеокарту (не успел) и решил заняться «дедовским методом» — скупой валюты и облачным майнингом(, но об этом в следующем посте.

Re-Help — Сравнение видеокарт

       Введение:

Очень часто при выборе видеокарты мы задаемся вопросом: «А какая из них лучше?». Ведь нынешний компьютерный рынок просто пестрит различными предложениями. Данная статья предназначена для помощи обычному человеку, не желающему читать многочисленные обзоры или не имеющему на это время, определить лучшую видеокарту за свои деньги.

Прежде чем начать изучать таблицу, учтите следующие нюансы:

  • Сравнение видеокарт GeForce и Radeon между собой — приблизительное. В одних играх быстрее будет GeForce, в других — Radeon.
  • Отличие в скорости работы вышестоящей видеокарты от нижестоящей  , можно узнать из тестов многочисленных интернет ресурсов .
  • Видеокарты в таблице представлены в порядке снижения производительности сверху вниз.
  • Здесь представлены только эталонные видеокарты, т.е. имеющие характеристики эталонов видеокарт AMD(ATI) и Nvidia.
  • Не следует забывать, что на компьютерном рынке сейчас есть немало видеокарт, предварительно разогнанных производителями.Они имеют суффиксы Sonic, OC, OC2, Extreme, XXX и т.д. и обладают более высокой производительностью. Если вы не собираетесь разгонять видеокарту самостоятельно, то следует рассмотреть и «заводской» вариант.
  • Также при выборе видеокарт конкретного производителя следует обратить внимание на установленную систему охлаждения (фотографию и обзор можно найти, сделав запрос в поисковике по полному наименованию видеокарты).
  • Все видеокарты имеют интерфейс PCI-Express. AGP-варианты могут незначительно отличаться по характеристикам, но в рамках данной статьи их не рассматриваем. Так же здесь нет мобильных видеочипов.
  • Красным цветом выделены видеокарты снятые с производства на момент написания статьи.
  • При выборе видеокарты также следует помнить и об объеме видеопамяти. В таблице этот факт почти не учитывается. Конечно, чем больше — тем лучше, но в любом случае предпочтительнее взять карту с более мощным чипом, чем с бoльшим объёмом памяти..

Сравнительная таблица

Ну а теперь, собственно, предлагаю вашему вниманию саму таблицу

                  GeForce

                   Radeon
GTX 690 HD 7990 — 7970 x2
GTX Titan R9 290X
GTX 590 — GTX 780 HD 6990 > R9 290
GTX 680 — GTX 770 HD 5970 > R9 280X
GTX 670 HD 7970
GTX 580 — GTX 760 HD 7950
GTX 295 <> GTX 660 Ti HD 7870 > R9 270X
GTX 570 <> GTX 660 HD 6970
GTX 480 HD 7850
GTX 750 Ti HD 6950
GTX 560 Ti HD 5870 > HD 6930
GTX 470 HD 6870 > R7 260X
GTX 750 HD 4870 X2
  HD 5850 > HD 7790
GTX 285  
GTX 460 1Gb —> GTX 650Ti R7 260
GTX 465 HD 6850 > HD 7770
GTX 280  
GTX 275 HD 5830
GTX 460 768mb  
9800 GX2 HD 4890
GTX 260 (216sp) HD 6790
  HD 4850 X2
GTX 260 (192sp)  HD 5770 > HD 7750
GTX 550 Ti <> GTX 650 HD 4870 > —> HD 6770
GTS 450  
8800 Ultra HD 3870 X2
GTS 250 HD 5750
9800 GTX/GTX+ HD 4850
8800 GTX  HD 4770
8800 GTS 512Mb > GT 640 > GT 730 HD 6670
GTS 240 HD 4830
9800 GT HD 5670
8800 GT —> GT 440 —> GT 630 HD 4730
GT 240 GDDR5  
9600 GTS  
9600 GT —> GT 430 —> GT 620 HD 3870
9600 GSO 768Mb HD 5570
8800 GS 768Mb HD 4670
8800 GTS 640Mb HD 3850 X2
9600 GSO 384Mb HD 5550
8800 GS 384Mb HD 2900 XT
8800 GTS 320Mb HD 3850 > HD 6450
GT 220 > GT 520 HD 2900 PRO
  HD 3690
  HD 2900 GT
7950 GX2 X1950 XTX
  HD 4650
  X1950 XT
7900 GTX X1900 XTX
7950 GT X1900 XT
8600 GTS X1950 PRO
9500 GT HD 3650
7900 GT X1950 GT
7800 GTX 512Mb X1900GT
7900GS X1800XT
7800 GTX 256Mb HD 3750
7800 GT X1800XL (GTO2)
7800 GS X1800 GTO
8600GT HD 2600 XT
6800 Ultra X850 XT (и PE)
6800 GT X800 XT (и PE)
  X850 PRO
6800 GS X800 XL (GTO)
  X1650 XT
7600 GT HD 4550
  HD 5450
  HD 2600 PRO
G 210 HD 3730
9400 GT X1650 PRO (X1600 XT)
7600 GS X1600 PRO
6800 X800
6600 GT X800 GT
6800 LE (XT) X700 XT
  HD 4350
  HD 3470
  X1300 XT
8500 GT HD 2400 XT
7300 GT HD 3450
  HD 2400 PRO
  X700
6600 X1550 (X1300 PRO)
8400 GS  
  X600 XT
6600 LE X550
7300 GS X1300
7300 LE  
6200 X1050
7100 GS  
7200 GS X300 (SE)

  Удачи и будьте внимательны при выборе видеокарты!

Источник: www.oszone.net

Сравнительная таблица видеокарт ATI Radeon — Видеокарты — Каталог статей

Графические карты ATI Radeon

 

RadeonCoreOn-board
Memory
InterfaceCore
Clock
MemoryPPUTpCFill Rate
PCI-E
16x
AGPPCIMHzTypeClock
(eff.)
BusMBWnumberMpix/sMtex/s
MBMHzbitGB/s
X1950 Pro Dual62x RV57052x 512+580GDDR314002x 2562x 44,82x 362x 122x 70002x 7000
X1950 XTXR580+512+650GDDR4200025664,048161040010400
X1950 CE2R580+512+650GDDR4200025664,048161040010400
X1950 XTR580+1256++625GDDR3180025657,648161000010000
X1950 ProRV5701256/512++575GDDR3138025644,2361269006900
X1950 GTRV5701256/512++500GDDR3120025638,4361260006000
X1900 XTXR580512+650GDDR3155025649,648161040010400
X1900 CE2R580256/512+625GDDR3145025646,448161000010000
X1900 XTR580256/512+625GDDR3145025646,448161000010000
X1900 GT (rev.2)R580256+510GDDR3132025642,2361261006100
X1900 GTR580256+575GDDR3120025638,4361269006900
X1800 XTR520256/512+625GDDR3150025648,016161000010000
X1800 XT CE2R520256+600GDDR3140025644,8161696009600
X1800 XLR520256+500GDDR3100025632,0161680008000
X1800 GTOR520256+500GDDR3100025632,0121260006000
X1650 XTRV560256/512+600GDDR3140012822,424848004800
X1650 ProRV5301/RV5351256/512++600DDR2
GDDR3
800
1400
12812,8
22,4
12424002400
X1600 XTRV530128/256/512+590GDDR3138012822,112424002400
X1600 ProRV5301128/256
256/512
++500GDDR3
DDR2
1000
800
12816,0
12,8
12420002000
X15503RV5151/RV5161256/512+++550DDR280012812,84424002400
X1300 ProRV515/RV505128/256+600DDR280012812,84424002400
X1300RV5151/RV5051256+++450DDR5001288,04418001800
X1300 LERV515/RV505256+450DDR2533644,34418001800
X1300 HMRV515/RV50532+450GDDR3500322,04418001800
X10504RV370256
128
256
+400DDR2
DDR2
DDR
660
660
500
128
64
128
10,6
5,3
8,0
4416001600
RadeonCoreOn-board
Memory
InterfaceCore
Clock
MemoryPPUTpCFill Rate
PCI-E
16x
AGPPCIMHzTypeClock
(eff.)
BusMBWnumberMpix/sMtex/s
MBMHzbitGB/s
X850 XT PER480/R481256++540GDDR3120025639,0161686008600
X850 XTR480/R481256/512++520GDDR3110025635,2161683008300
X850 ProR480/R481256++520GDDR3110025635,2121262006200
X800 XT PER420/R423256++520GDDR3110025635,2161683008300
X800 XTR420/R423256++500GDDR3100025632,0161680008000
X800 XLR4301256/512++400GDDR3100025632,0161664006400
X800 GTOR423/R430/
R480
256/128++
(R420)
400GDDR3980
700
25631,4
22,4
121248004800
X800 ProR420/R423256++475GDDR390025628,8121257005700
X800R4301128++400GDDR370025622,4121248004800
X800 GTR423/R430/
R480/R481
256/128++
(R420)
475GDDR3
DDR
980
700
25631,4
22,4
8838003800
X800 SER420/R423128/256++425
450
GDDR3
DDR
900
700
25622,4
28,8
883400
3600
3400
3600
X700 XTRV410128/256+475GDDR3105012816,88838003800
X700 ProRV4101128/256++425GDDR390012814,48834003400
X700RV4101128
512
++400DDR700
860
12811,2
13,8
8832003200
X700 SERV410128+400DDR50064
128
4,0
8,0
4416001600
X600 XTRV380128/256+500DDR70012811,24420002000
X600 ProRV370/RV380128/256+400DDR6001289,64416001600
X550RV37064/128/256+400DDR50064
128
4,0
8,0
4416001600
X300RV37064/128/256+325DDR400
600
1286,4
9,6
4413001300
X300 SERV37032/64/128+325DDR400
600
643,2
4,8
4413001300
RadeonCoreOn-board
Memory
InterfaceCore
Clock
MemoryPPUTpCFill Rate
PCI-E
16x
AGPPCIMHzTypeClock
(eff.)
BusMBWnumberMpix/sMtex/s
MBMHzbitGB/s
9800 XTR3602568x410DDR73025623,48833003300
9800 ProR350
R350/R360
256
128/256
8x380DDR2
DDR
700
680
25622,4
21,8
8830003000
9800R350/R3601288x325DDR58025618,68826002600
9800 SER350/R3601288x380
325
DDR680
580
256
128
21,8
9,3
441500
1300
1500
1300
9700 ProR3001288x325DDR62025619,88826002600
9700R3001288x275DDR54025617,38822002200
9700 TXR3001288x263DDR52625616,88821002100
9600 XTRV360128/2568x500DDR6001289,64420002000
9600 ProRV350/RV360128/2568x400DDR6001289,64416001600
9600RV350/RV360128/2568x325DDR4001286,44413001300
9600 SERV350/RV360128/2568x325DDR400643,24413001300
9600 TXR3001288x300
325
DDR400
540
1286,4
8,6
882400
2600
2400
2600
9550 UltraRV350/RV3601288x475
500
DDR650
700
12810,4
11,2
441900
2000
1900
2000
9550 GTRV350/RV360128/2568x400DDR4001286,44416001600
9550 XTRV360128/2568x400DDR5001288,04416001600
9550RV350128/2568x250DDR4001286,44410001000
9550 SERV350128/2568x250DDR400643,24410001000
9500 ProR3001288x275DDR5401288,68822002200
9500R30064/128
128
8x275DDR540128
256
8,6
17,3
4411001100
RadeonCoreOn-board
Memory
InterfaceCore
Clock
MemoryPPUTpCFill Rate
PCI-E
16x
AGPPCIMHzTypeClock
(eff.)
BusMBWnumberMpix/sMtex/s
MBMHzbitGB/s
9200 ProRV28064/128/2568x275DDR5501288,84411001100
9200RV28064/128/2568x+250DDR4001286,44410001000
9250RV280128/2568x+240DDR40064
128
3,2
6,4
44960960
9200 SERV28064/128/2568x+200DDR300642,444800800
9100R20064/1284x+250DDR5001288,04810002000
9000 ProRV25064/1284x275DDR5501288,84411001100
9000 XTRV25064/1284x250DDR3661285,94410001000
9000RV25064/1284x+250DDR4001286,44410001000
8500R20064/1284x275DDR5501288,84811002200
8500 LER20064/1284x+250DDR5001288,04810002000
7500RV20064/1284x290DDR4601287,4265801740
7500 LERV20064/1284x250DDR3201285,1265001500
7200R10032/644x165SDR1651282,726330990
LER100324x+150DDR3001284,726300900
DDR RTLR100644x180DDR3601285,9263601080
DDRR10032/644x+165DDR3301285,326330990
SDR / Rage 6R100324x+165SDR1651282,726330990
VE/7000RV10032/644x+185DDR370643,013185560
VE/7000RV10032/644x+185SDR1851281,513185560
RadeonCoreOn-board
Memory
InterfaceCore
Clock
MemoryPPUTpCFill Rate
PCI-E
16x
AGPPCIMHzTypeClock
(eff.)
BusMBWnumberMpix/sMtex/s
MBMHzbitGB/s


Некоторые видеокарты содержат чипы с частично отключенными функциональными блоками (SPU, TMU, ROP, PPU, VPU), и/или имеют меньшую от возможной ширину шины памяти. Для ознакомления с подробными характеристиками чипов смотрите таблицу графических процессоров AMD (ATI).

 

1 — в AGP-вариантах используется микросхема моста ATI RIALTO.

2 — CE = CrossFire Edition.

3 — на самом деле — тот же X1300 Pro, только с новым названием.

4 — на самом деле — тот же X600 Pro, только с новым названием.

5 — используется микросхема моста PCI-E 16x v1.0a PEX8532 от PLX Technology.

6 — производится только Sapphire Technology на основе собственного дизайна.

GTX 1060 или GTX 1050 TI?

Какую дискретку лучше прикупить, чтоб и не потратиться особо, но и от комфортной игры не отказываться? Решить эту задачу поможет статья. В ней — сравнение двух самых популярных игровых карточек — GTX 1060 и GTX 1050 TI. Описание ключевых особенностей, таблица с параметрами и примеры достойных вариантов помогут с выбором самого подходящего.

NVidia GeForce GTX 1060 3gb

Достойная игровая карточка, способная достойно занять место в сборке бюджетной или среднеценовой категории. 3 Гб хватает для большинства серьезных современных игр. Особенно если она работает в связке с мощными комплектующими, вроде ЦПУ Ryzen 5/7, Intel седьмого, восьмого поколения и 16 Гб ОЗУ. 

Читайте также: 3 лучших производителя видеокарт NVidia GeForce GTX 1060 + 5 крутых моделей

С перечисленными выше компонентами видеокарточка, например, GTX 1060 3GB GDDR5 Aero Mini, в игре War Thunder обеспечивает в среднем 124 FPS в режиме «Кино» при FHD разрешении. С The Evil Within 2 при высоких настройках также не возникает дискомфорта. Tom Clancy’s Rainbow Six: Siege при ультрапресете графики тоже идет «на ура». 

Как альтернативу можно выбрать и «снежинку» от ASUS. В сравнении с предыдущим примером, у нее не менее классные характеристики. Охлаждение у видеоадаптера — превосходное: благодаря запатентованной конструкции

Wing-Blade достигается высокая эффективность распределения воздуха при том, что девайс работает достаточно тихо. 

Было бы нечестно оставить без внимания одного из лидеров на рынке видеокарт — GIGABYTE, чьи графические процессоры считаются одними из лучших в плане доступности и долговечности. Подтверждение тому — модель Windforce OC.

Обзор основных особенностей:

  • Мощная система охлаждения и никакого лишнего шума даже при серьезных нагрузках.
  • Возможность разгона: плюс к производительности без особых усилий за счет фирменного софта.
  • Возможность онлайн-трансляций игрового процесса.
  • Поддержка VR — геймерам гарантировано полное погружение в атмосферу.

В тему: Как собрать игровой компьютер, какие комплектующие купить: 3 варианта на выбор

NVidia GeForce GTX 1050 TI

Несмотря на популярность предыдущей серии, эта видеокарточка все еще актуальна. GPU демонстрирует впечатляющие результаты в современных играх при весьма демократичном ценнике, что подтверждают отзывы.

Почему рекомендуют купить:

  1. Баланс цены и привлекательности параметров.
  2. Стабильная работа при многочасовой нагрузке.
  3. Приличный объем памяти.
  4. Большинство версий поддерживают возможность разгона и оснащаются специальным ПО для этой цели.
  5. Отсутствие излишнего шума и перегрева при разгоне.
  6. Комфортное ведение игровых стримов.

Смотрите также: 3 лучших производителя и 5 видеокарт NVidia GeForce GTX 1050 TI на 4 GB

Учитывая возможности графического процессора и его стоимость, к минусам можно отнести разве что отсутствие поддержки VR технологий. В этом — одно из существенных отличий такой модели от той видеокарты, что описывалась в предыдущем разделе. Если же пользователю без разницы, есть VR или, то GPU 1050TI можно смело советовать выбрать для современных игр.

Одним из ярких представителей линейки является модель от MSI, в которой используются компоненты, имеющие сертификат Military Class 4 — гарантия надежности. Готовность к серьезным и длительным нагрузкам при разгоне и стабильная работа — вот залог комфортного гейминга. С разгоном девайса никаких трудностей не возникает даже у неопытного пользователя. Для этих целей предусмотрено фирменное ПО, которое входит в комплект поставки. Что касается дизайна, то он выдержан в классическом для продуктов компании стиле. Однако в корпусе с прозрачной стенкой светящийся логотип и иллюминация декоративных вставок, которую можно настроить, смотрятся весьма эффектно.

Рассматривая линейку, нельзя обойти стороной асусовскую «рабочую лошадку» — DDR5 Gaming Strix, чьи характеристики весьма привлекательны. Она практически бесшумна, остается достаточно «холодной» почти в любых ситуациях и готова к разгону. Любителям компактных сборок можно порекомендовать вариант Low Profile. Компактный форм-фактор никак не повлиял на мощь девайса.

Что касается возможностей GTX 1050, то результаты тестов в хитовых играх радуют. К примеру, в OverWatch, используя эпические настройки, можно получить в среднем 68 FPS при разрешении FHD и 63 кадра в секунду при WQHD. В Tom Clancy’s Rainbow Six: Siege при FHD разрешении — в районе 80 кадров, правда, с периодическими просадками до 50, но при этом все вполне играбельно. С Watch Dogs 2 устройство тоже справится. Не на ультранастройках, конечно, но на 50 FPS рассчитывать можно, что для девайсов в этой ценовой категории — вполне достойный результат.

Интересно: Сравнение 2 бюджетных игровых видеокарт — GTX 1050 против GTX 1050 TI

Сравнительная таблица характеристик

Ниже приведена таблица, из которой можно понять, чем отличаются модели видеокарт. Она поможет решить, какой графический процессор способен стать самым лучшим игровым вариантом.

Любопытно: Какая видеокарта лучше — NVidia GeForce GTX 1050 или AMD Radeon RX 560

Обзор главных достоинств и характеристик каждой из приведенных в этой статье видеокарт показал, что любую версию можно смело выбирать для актуальных игр. Но какая из них — самая лучшая, решать пользователю. Если хочется чуть сэкономить, можно посоветовать 1050 TI, а если надо помощнее — 1060.
 

Сравнительная таблица чипов NVIDIA GeForce (для настольных ПК)

Основные характеристики

Если вы не следите за рынком видеокарт почти ежедневно, вам будет очень сложно понять различия между несколькими различными графическими чипами NVIDIA, доступными сегодня на рынке. Чтобы облегчить знание и понимание различий между этими чипами, мы составили таблицу ниже.
Важно отметить, что начиная с 2007 года и AMD (ATI), и NVIDIA стали указывать частоту памяти своих видеокарт с использованием реальной тактовой частоты.Раньше производители ссылались на часы памяти с удвоенной (или учетверяющей) реальной тактовой частотой, поскольку DDR ​​и другие основанные на ней технологии (DDR2, GDDR3 и т. д.) позволяют микросхеме памяти передавать два блока данных за такт, в то время как память GDDR5 позволяет микросхеме памяти передавать четыре блока данных за такт. Таким образом, видеокарта с микросхемой памяти, работающей на частоте 500 МГц, будет называться имеющей память 1 ГГц. Чтобы сделать нашу таблицу сопоставимой со старыми чипами, мы по-прежнему используем эффективные часы памяти, а не реальные часы памяти.

ГП Часы† Турбочасы Часы памяти Интерфейс памяти Пропускная способность памяти Проц. DirectX OpenGL PCIe
GeForce4 МХ 420 250 МГц 166 МГц 128-бит 2.6 ГБ/с 1 7 1,2 АГП 4x
GeForce4 MX 440 SE 250 МГц 333 МГц 64-разрядная версия 2,6 ГБ/с 1 7 1,2 АГП 4x
GeForce4 МХ 440 270 МГц 400 МГц 128-бит 6,4 ГБ/с 1 7 1,2 АГП 4x
GeForce 4 MX 440 AGP 8x 275 МГц 512 МГц 128-бит 8.1 ГБ/с 1 7 1,2 АГП 8x
GeForce4 МХ 460 300 МГц 550 МГц 128-бит 8,8 ГБ/с 1 7 1,2 АГП 4x
GeForce MX 4000 250 МГц * 32-битная, 64-битная или 128-битная * 1 7 1,2 АГП 8x
GeForce4 Ti 4200 250 МГц 514 МГц (64 МБ) или 444 МГц (128 МБ) 128-бит 8.2 ГБ/с (64 МБ) или 7,1 ГБ/с (128 МБ) 4 8.1 1,4 АГП 4x
GeForce4 Ti 4200 AGP 8x 250 МГц 500 МГц 128-бит 8 ГБ/с 4 8.1 1,4 АГП 8x
GeForce PCX 4300 275 МГц 512 МГц 128-бит 8,2 ГБ/с 2 7 1.4 1.1
GeForce4 Ti 4400 275 МГц 550 МГц 128-бит 8,8 ГБ/с 4 8.1 1,4 АГП 4x
GeForce4 Ti 4600 300 МГц 650 МГц 128-бит 10,4 ГБ/с 4 8.1 1,4 АГП 4x
GeForce4 Ti 4800 SE 275 МГц 550 МГц 128-бит 8.8 ГБ/с 4 8.1 1,4 АГП 8x
GeForce4 Ti 4800 300 МГц 650 МГц 128-бит 10,4 ГБ/с 4 8.1 1,4 АГП 8x
GeForce FX 5200 250 МГц 400 МГц 64-битная или 128-битная 3,2 ГБ/с или 6,4 ГБ/с 4 9.0 1,5 АГП 8x
GeForce FX 5200 SE 250 МГц 333 МГц 64-разрядная версия 2,7 ГБ/с 4 9,0 1,5 АГП 8x
GeForce FX 5200 Ультра 350 МГц 650 МГц 128-бит 10,4 ГБ/с 4 9,0 1,5 АГП 8x
GeForce PCX 5300 325 МГц 650 МГц 128-бит 10.4 ГБ/с 4 9,0 1,5 1.1
GeForce FX 5600 325 МГц 550 МГц 128-бит 8,8 ГБ/с 4 9,0 1,5 АГП 8x
GeForce FX 5600 SE 250 МГц 550 МГц 64-разрядная версия 4,4 ГБ/с 4 9,0 1,5 АГП 8x
GeForce FX 5500 270 МГц 400 МГц 64-битная или 128-битная 3.2 ГБ/с или 6,4 ГБ/с 4 9,0 1,5 АГП 8x
GeForce FX 5600 Ультра 500 МГц 800 МГц 128-бит 12,8 ГБ/с 4 9,0 1,5 АГП 8x
GeForce FX 5700 LE 250 МГц 400 МГц 128-бит 6,4 ГБ/с 4 9.0 1,5 АГП 8x
GeForce FX 5700 425 МГц 600 МГц 128-бит 9,6 ГБ/с 4 9,0 1,5 АГП 8x
GeForce FX 5700 VE 300 МГц 500 МГц 128-бит 8 ГБ/с 4 9,0 1,5 АГП 8x
GeForce FX 5700 Ультра 475 МГц 900 МГц 128-бит 14.4 ГБ/с 4 9,0 1,5 АГП 8x
GeForce PCX 5750 475 МГц 900 МГц 128-бит 14,4 ГБ/с 4 9,0 1,5 1.1
GeForce FX 5800 400 МГц 800 МГц 128-бит 12,8 ГБ/с 8 9,0 1.5 АГП 8x
GeForce FX 5800 Ultra 500 МГц 1 ГГц 128-бит 16 ГБ/с 8 9,0 1,5 АГП 8x
GeForce FX 5900 XT 390 МГц 680 МГц 256 бит 21,7 ГБ/с 8 9,0 1,5 АГП 8x
GeForce FX 5900 400 МГц 850 МГц 256 бит 27.2 ГБ/с 8 9,0 1,5 АГП 8x
GeForce FX 5900 SE 400 МГц 700 МГц 256 бит 22,4 ГБ/с 8 9,0 1,5 АГП 8x
GeForce FX 5900 ZT 325 МГц 700 МГц 256 бит 22,4 ГБ/с 8 9,0 1.5 АГП 8x
GeForce ПК 5900 350 МГц 500 МГц 256 бит 17,6 ГБ/с 8 9,0 1,5 1.1
GeForce FX 5900 Ультра 450 МГц 850 МГц 256 бит 27,2 ГБ/с 8 9,0 1,5 АГП 8x
GeForce PCX 5950 475 МГц 950 МГц 256 бит 30.4 ГБ/с 8 9,0 1,5 1.1
GeForce FX 5950 Ультра 475 МГц 950 МГц 256 бит 30,4 ГБ/с 8 9,0 1,5 АГП 8x
GeForce 6200 300 МГц 550 МГц 128-бит 8,8 ГБ/с 4 9.0c 2.1 АГП 8x или 1,1
GeForce 6200 LE 350 МГц 550 МГц 64-разрядная версия 4,4 ГБ/с 2 9.0c 2.1 1.1
GeForce 6200 (ТС) 350 МГц 666 МГц * 32-битная или 64-битная 2,66 ГБ/с или 5,32 ГБ/с * 4 9.0c 2.1 1.1
GeForce 6500 (ТС) 400 МГц 666 МГц 32-битная или 64-битная 2.66 ГБ/с или 5,32 ГБ/с 4 9.0c 2.1 1.1
GeForce 6600 300 МГц 550 МГц * 64-битная или 128-битная 4,4 ГБ/с или 8,8 ГБ/с * 8 9.0c 2.1 АГП 8x или 1,1
GeForce 6600 DDR2 350 МГц 800 МГц * 128-бит 12,8 ГБ/с 8 9.0с 2.1 АГП 8x или 1,1
GeForce 6600 LE 300 МГц * 64-битная или 128-битная 4 ГБ/с или 8 ГБ/с 4 9.0c 2.1 AGP 8x или 1.1
GeForce 6600 GT 500 МГц 1 ГГц 128-бит 16 ГБ/с 8 9.0c 2.1 1.1
GeForce 6600 GT AGP 500 МГц 900 МГц 128-бит 14,4 ГБ/с 8 9.0c 2.1 АГП 8x
GeForce 6800 LE 300 МГц 700 МГц 256 бит 22,4 ГБ/с 8 9.0c 2.1 АГП 8x
GeForce 6800 XT 325 МГц 600 МГц 256 бит 19.2 ГБ/с 8 9.0c 2.1 1.1
GeForce 6800 XT AGP 325 МГц 700 МГц 256 бит 22,4 ГБ/с 8 9.0c 2.1 АГП 8x
GeForce 6800 325 МГц 600 МГц 256 бит 19,2 ГБ/с 12 9.0c 2.1 1.1
GeForce 6800 AGP 325 МГц 700 МГц 256 бит 22,4 ГБ/с 12 9.0c 2.1 АГП 8x
GeForce 6800 GS 425 МГц 1 ГГц 256 бит 32 ГБ/с 12 9.0c 2.1 1.1
GeForce 6800 GS AGP 350 МГц 1 ГГц 256 бит 32 ГБ/с 12 9.0с 2.1 АГП 8x
GeForce 6800 GT 350 МГц 1 ГГц 256 бит 32 ГБ/с 16 9.0c 2.1 AGP 8x или 1.1
GeForce 6800 Ultra 400 МГц 1,1 ГГц 256 бит 35,2 ГБ/с 16 9.0c 2.1 AGP 8x или 1.1
GeForce 6800 Ultra Extreme 450 МГц 1,1 ГГц 256 бит 35,2 ГБ/с 16 9.0c 2.1 AGP 8x или 1.1
GeForce 7100 GS (ТС) 350 МГц 666 МГц * 64-разрядная версия 5,32 ГБ/с * 4 9.0c 2.1 1.1
GeForce 7200 GS (ТС) 450 МГц 800 МГц * 64-разрядная версия 6.4 ГБ/с * 4 9.0c 2.1 1.1
GeForce 7300 SE (ТС) 225 МГц * 64-разрядная версия * 4 9.0c 2.1 1.1
GeForce 7300 LE (TC) 450 МГц 648 МГц * 64-разрядная версия 5,2 ГБ/с * 4 9.0c 2.1 1.1
GeForce 7300 GS (TC) 550 МГц 810 МГц * 64-разрядная версия 6,5 ГБ/с * 4 9.0c 2.1 AGP 8x или 1.1
GeForce 7300 GT (TC) 350 МГц 667 МГц 128-бит 10,6 ГБ/с 8 9.0c 2.1 AGP 8x или 1.1
GeForce 7500 LE OEM 550 МГц 800 МГц 64-разрядная версия 6.4 ГБ/с 4 9.0c 2.1 1.1
GeForce 7600 GS 400 МГц 800 МГц 128-бит 12,8 ГБ/с 12 9.0c 2.1 AGP 8x или 1.1
GeForce 7600 GT 560 МГц 1,4 ГГц 128-бит 22,4 ГБ/с 12 9.0c 2.1 AGP 8x или 1.1
GeForce 7650 GS OEM 400 МГц 800 МГц 128-бит 12,8 ГБ/с 12 9.0c 2.1 1.1
GeForce 7800 GS 375 МГц 1,2 ГГц 256 бит 38,4 ГБ/с 16 9.0c 2.1 АГП 8x
GeForce 7800 GT 400 МГц 1 ГГц 256 бит 32 ГБ/с 20 9.0с 2.1 1.1
GeForce 7800 GTX 430 МГц 1,2 ГГц 256 бит 38,4 ГБ/с 24 9.0c 2.1 1.1
GeForce 7800 GTX 512 550 МГц 1,7 ГГц 256 бит 54,4 ГБ/с 24 9.0c 2.1 1.1
GeForce 7900 GS 450 МГц 1.32 ГГц 256 бит 42,2 ГБ/с 20 9.0c 2.1 AGP 8x или 1.1
GeForce 7900 GT 450 МГц 1,32 ГГц 256 бит 42,2 ГБ/с 24 9.0c 2.1 1.1
GeForce 7900 GTO 650 МГц 1,32 ГГц 256 бит 42.2 ГБ/с 24 9.0c 2.1 1.1
GeForce 7900 GTX 650 МГц 1,6 ГГц 256 бит 51,2 ГБ/с 24 9.0c 2.1 1.1
GeForce 7950 GT 550 МГц 1,4 ГГц 256 бит 44,8 ГБ/с 24 9.0c 2.1 AGP 8x или 1.1
GeForce 7950 GX2‡ 500 МГц x2 1,2 ГГц x2 256-бит x2 38,4 ГБ/с x2 24 х 2 9.0c 2.1 1.1
GeForce 8400 GS 450/900 МГц 800 МГц 64-разрядная версия 6,4 ГБ/с 16 10 2.1 1.1
GeForce 8400 GS (версия 2) 567 / 1400 МГц 800 МГц 64-разрядная версия 6.4 ГБ/с 8 10 3,3 2,0
GeForce 8400 GS (версия 3) 520/1230 МГц 800 МГц 64-разрядная версия 6,4 ГБ/с 16 10,1 3,3 2,0
GeForce 8500 GT 450/900 МГц 666 МГц или 800 МГц 128-бит 10,6 ГБ/с или 12,8 ГБ/с 16 10 2.1 1.1
GeForce 8600 GT DDR2 540/1,18 ГГц 666 МГц или 800 МГц 128-бит 10,6 ГБ/с или 12,8 ГБ/с 32 10 2.1 1.1
GeForce 8600 GT GDDR3 540/1,18 ГГц 1,4 ГГц 128-бит 22,4 ГБ/с 32 10 2.1 1.1
GeForce 8600 GTS 675 / 1,45 ГГц 2 ГГц 128-бит 32 ГБ/с 32 10 2.1 2,0
GeForce 8800 GS 550/1375 МГц 1,6 ГГц 192-битный 38,4 ГБ/с 96 10 2.1 2,0
GeForce 8800 GT 600/1.5 ГГц 1,8 ГГц 256 бит 57,6 ГБ/с 112 10 2.1 2,0
GeForce 8800 GTS 500/1,2 ГГц 1,6 ГГц 320-бит 64 ГБ/с 96 10 2.1 1.1
GeForce 8800 GTS 512 650/1625 МГц 1,94 ГГц 256 бит 62.08 ГБ/с 128 10 2.1 2,0
GeForce 8800 GTX 575 / 1,35 ГГц 1,8 ГГц 384-битный 86,4 ГБ/с 128 10 2.1 1.1
GeForce 8800 Ultra 612 / 1,5 ГГц 2,16 ГГц 384-битный 103,6 ГБ/с 128 10 2.1 1.1
GeForce 9400 GT 550/1,4 ГГц 800 МГц 128-бит 12,8 ГБ/с 16 10 2.1 2,0
GeForce 9500 GT DDR2 550/1400 МГц 1 ГГц 128-бит 16 ГБ/с 32 10 2.1 2,0
GeForce 9500 GT GDDR3 550/1400 МГц 1.6 ГГц 128-бит 25,6 ГБ/с 32 10 2.1 2,0
GeForce 9600 GSO 550/1350 МГц 1,6 ГГц 192-битный 38,4 ГБ/с 96 10 2.1 2,0
GeForce 9600 GSO 512 650/1625 МГц 1,8 ГГц 256 бит 57.6 ГБ/с 48 10 2.1 2,0
GeForce 9600 GT 600/1500 МГц или 650/1625 МГц 1,8 ГГц 256 бит 57,6 ГБ/с 64 10 2.1 2,0
GeForce 9800 GT 600/1500 МГц 1,8 ГГц 256 бит 57,6 ГБ/с 112 10 2.1 2,0
GeForce 9800 GTX 675/1688 МГц 2,2 ГГц 256 бит 70,4 ГБ/с 128 10 2.1 2,0
GeForce 9800 GTX+ 738 / 1836 МГц 2,2 ГГц 256 бит 70,4 ГБ/с 128 10 2.1 2,0
GeForce 9800 GX2‡ 600/1500 ГГц x2 2 ГГц x2 256-бит x2 64 ГБ/с x2 128×2 10 2.1 2,0
GeForce G100 567 / 1400 МГц 1 ГГц 64-разрядная версия 8 ГБ/с 8 10 2.1 2,0
GeForce GT 120 500/1400 МГц 1 ГГц 128-бит 16 ГБ/с 32 10 3,0 2,0
GeForce GT 130 500/1250 МГц 1 ГГц 192-битный 24 ГБ/с 48 10 2.1 2,0
GeForce GTS 150 738 / 1836 МГц 2 ГГц 256 бит 64 ГБ/с 128 10 2.1 2,0
GeForce 205 OEM 589 / 1402 МГц 1 ГГц 64-разрядная версия 8 ГБ/с 8 10,1 3.1 2,0
GeForce 210 589 / 1402 МГц 1 ГГц 64-разрядная версия 8 ГБ/с 16 10.1 3.1 2,0
GeForce GT 220 625/1360 МГц 1,58 ГГц 128-бит 25,28 ГБ/с 48 10,1 3.1 2,0
GeForce GT 240 DDR3 550/1340 МГц 1,8 ГГц 128-бит 28,8 ГБ/с 96 10,1 3,2 2.0
GeForce GT 240 GDDR3 550/1340 МГц 2 ГГц 128-бит 32 ГБ/с 96 10,1 3,2 2,0
GeForce GT 240 GDDR5 550/1340 МГц 3,4 ГГц 128-бит 54,4 ГБ/с 96 10,1 3,2 2,0
GeForce GTS 240 OEM 675 / 1620 МГц 2.2 ГГц 256 бит 70,4 ГБ/с 112 10 3,0 2,0
GeForce GTS 250 512 МБ 675 / 1620 МГц 2 ГГц 256 бит 64 ГБ/с 128 10 3,0 2,0
GeForce GTS 250 1 ГБ 738 / 1836 МГц 2,2 ГГц 256 бит 70.4 ГБ/с 128 10 3,0 2,0
GeForce GTX 260 576 / 1242 МГц 2 ГГц 448 бит 112 ГБ/с 192 10 2.1 2,0
GeForce GTX 260/216 576 / 1242 МГц 2 ГГц 448 бит 112 ГБ/с 216 10 2.1 2,0
GeForce GTX 275 633 / 1404 МГц 2,268 ГГц 448 бит 127 ГБ/с 240 10 3,0 2,0
GeForce GTX 280 602 / 1296 МГц 2,21 ГГц 512-бит 141,7 ГБ/с 240 10 2.1 2,0
GeForce GTX 285 648 / 1476 МГц 2.48 ГГц 512-бит 159 ГБ/с 240 10 2.1 2,0
GeForce GTX 295‡ 576 / 1242 МГц x2 2 ГГц x2 448-бит x2 112 ГБ/с x2 240 х 2 10 2.1 2,0
GeForce 310 OEM 589 / 1402 МГц 1 ГГц 64-разрядная версия 8 ГБ/с 16 10.1 3.1 2,0
GeForce 315 OEM 475 / 1100 МГц 1,58 ГГц 64-разрядная версия 12,6 ГБ/с 48 10,1 3,2 2,0
GeForce GT 320 OEM 540/1302 МГц 1,58 ГГц 128-бит 25,3 ГБ/с 72 10,1 3,2 2,0
GeForce GT 330 OEM 500/1250 МГц или 550/1340 МГц 1 ГГц или 1.6 ГГц 128-бит. 192-битный или 256-битный (варьируется) 96 или 112 10 3,2 2,0
GeForce GT 340 OEM 550/1340 МГц 3,4 ГГц 128-бит 54,4 ГБ/с 96 10,1 3,2 2,0
GeForce GT 405 OEM 589 / 1402 МГц 1,58 ГГц 64-разрядная версия 12.64 ГБ/с 16 10,1 3.1 2,0
GeForce GT 420 OEM 700/1400 МГц 1,8 ГГц 128-бит 28,8 ГБ/с 48 11 4.1 2,0
GeForce GT 430 700 / 1400 fgefoMHz 1,6 ГГц или 1,8 ГГц 128-бит 25,6 ГБ/с или 28,8 ГБ/с 96 11 4.2 2,0
GeForce GT 440 DDR3 810/1620 МГц 1,8 ГГц 128 бит 28,8 ГБ/с 96 11 4.2 2,0
GeForce GT 440 GDDR5 810 / 1620 МГц 3,2 ГГц 128-бит 51,2 ГБ/с 96 11 4.2 2,0
GeForce GTS 450 783 / 1566 МГц 3.6 ГГц 128-бит 57,7 ГБ/с 192 11 4.2 2,0
GeForce GTX 460 SE 650/1300 МГц 3,4 ГГц 256 бит 108,8 ГБ/с 288 11 4.1 2,0
GeForce GTX 460 768 МБ 675 / 1350 МГц 3,6 ГГц 192-битный 86.4 ГБ/с 336 11 4.1 2,0
GeForce GTX 460 1 ГБ 675 / 1350 МГц 3,6 ГГц 256 бит 115,2 ГБ/с 336 11 4.1 2,0
GeForce GTX 460 v2 1 ГБ 778 / 1556 МГц 4 ГГц 192-битный 96,2 ГБ/с 336 11 4.1 2,0
GeForce GTX 465 607 / 1215 МГц 3206 МГц 256 бит 102,6 ГБ/с 352 11 4.2 2,0
GeForce GTX 470 607 / 1215 МГц 3348 МГц 320-бит 133,9 ГБ/с 448 11 4.2 2,0
GeForce GTX 480 700/1401 МГц 3696 МГц 384-битный 177.4 ГБ/с 480 11 3,2 2,0
GeForce GT 510 OEM 523 / 1046 МГц 1,8 ГГц 64-разрядная версия 14,4 ГБ/с 48 11 4.1 2,0
GeForce GT 520 810/1620 МГц 1,8 ГГц 64-разрядная версия 14,4 ГБ/с 48 11 4.2 2,0
GeForce GT 530 OEM 700/1400 МГц До 1796 МГц 128-бит До 28,7 ГБ/с 96 11 4.2 2,0
GeForce GT 545 DDR3 720/1440 МГц До 1,8 ГГц 192-битный До 43,2 ГБ/с 144 11 4.1 2.0
GeForce GT 545 GDDR5 OEM 870/1740 МГц 4 ГГц 128-бит 64 ГБ/с 144 11 4.2 2,0
GeForce GTX 550 Ti 900/1800 МГц 4,1 ГГц 192-битный 98,4 ГБ/с 192 11 4.2 2,0
GeForce GTX 555 OEM 776 / 1553 МГц 3828 МГц 192-битный 91.9 ГБ/с 288 11 4.2 2,0
GeForce GTX 560 810 950/1620 1900 МГц от 4 до 4,4 ГГц 256 бит от 128 до 140,8 ГБ/с 336 11 4.1 2,0
GeForce GTX 560 OEM 552 / 1104 МГц 3206 МГц 320-бит 128,2 ГБ/с 384 11 4.2 2.0
GeForce GTX 560 SE 736 / 1,472 MHz 3,828 MHz 192-bit 92 GB/s 288 11 4.1 2.0
GeForce GTX 560 Ti 822 / 1,644 MHz 4,008 MHz 256-bit 128.3 GB/s 384 11 4.1 2.0
GeForce GTX 560 Ti/448 732 / 1,464 MHz 3.8 ГГц 320-бит 152 ГБ/с 448 11 4.1 2,0
Geforce GTX 560 Ti OEM 732 / 1464 МГц 3,8 ГГц 320-бит 152 ГБ/с 352 11 4.1 2,0
GeForce GTX 570 732 / 1464 МГц 3,8 ГГц 320-бит 152 ГБ/с 480 11 4.2 2,0
GeForce GTX 580 772 / 1544 МГц 4008 МГц 384-битный 192,4 ГБ/с 512 11 4.2 2,0
GeForce GTX 590‡ 607 / 1,215 МГц x2 3414 МГц x2 384-бит x2 163,9 ГБ/с x2 512 х 2 11 4.2 2,0
GeForce GT 605 OEM 523 / 1046 МГц 1796 МГц 64-разрядная версия 14.4 ГБ 48 11 4.2 2,0
GeForce GT 610 810/1620 МГц 1796 МГц 64-разрядная версия 14,4 ГБ/с 48 11 4.2 2,0
GeForce GT 620 700/1400 МГц 1,8 ГГц 64-разрядная версия 14,4 ГБ/с 96 11 4.2 2,0
GeForce GT 620 OEM 810/1620 МГц 1796 МГц 64-разрядная версия 14,4 ГБ/с 48 11 4.2 2,0
GeForce GT 630 D3 700 МГц / 1,4 ГГц 1,6–1,8 ГГц 128-бит от 25,6 до 28,8 ГБ/с 96 11 4.2 2,0
GeForce GT 630 G5 810 МГц/1.62 ГГц 3,2 ГГц (GDDR5) 128-бит 51,2 ГБ/с 96 11 4.2 2,0
GeForce GT 630 2 ГБ 902 МГц 1,8 ГГц 64-разрядная версия 14,4 ГБ/с 384 11.1 4.2 2,0
GeForce GT 630 OEM 875 МГц 1782 МГц 128-бит 28.5 ГБ/с 192 11 4.2 3,0
GeForce GT 635 967 МГц 2 ГГц 64-разрядная версия 16 ГБ/с 384 11 4,3 3,0
GeForce GT 640 2 ГБ DDR3 900 МГц 1,8 ГГц 128-бит 28,5 ГБ/с 384 11 4,3 3.0
GeForce GT 640 1 ГБ GDDR5 1046 МГц 5 ГГц 64-разрядная версия 40 ГБ/с 384 11,1 4,3 3,0
GeForce GT 640 OEM DDR3 797 МГц 1782 МГц 128-бит 28,5 ГБ/с 384 11 4.2 3,0
GeForce GT 640 OEM DDR3 720/1440 МГц 1782 МГц 192-битный 43 ГБ/с 144 11 4.2 2,0
GeForce GT 640 OEM GDDR5 950 МГц 5 ГГц 128-бит 80 ГБ/с 384 11 4.2 3,0
GeForce GT 645 OEM 823 МГц 4 ГГц 128-бит 64 ГБ/с 576 11 4,3 3,0
GeForce GTX 650 1058 МГц 5 ГГц 128-бит 80 ГБ/с 384 11 4,3 3.0
GeForce GTX 650 Ti 928 МГц 5,4 ГБ/с 128-бит 86,4 ГБ/с 768 11 4,3 3,0
GeForce GTX 650 Ti Boost 980 МГц 1033 МГц 6 ГГц 192-битный 144,2 ГБ/с 768 11 4,3 3,0
GeForce GTX 660 980 МГц 1033 МГц 6 ГГц 192-битный 144.2 ГБ/с 960 11 4,3 3,0
GeForce GTX 660 Ti 915 МГц 980 МГц 6 ГГц 192-битный 144,2 ГБ/с 1 344 11 4,3 3,0
GeForce GTX 670 915 МГц 980 МГц 6 ГГц 256 бит 192,2 ГБ/с 1 344 11 4.2 3,0
GeForce GTX 680 1006 МГц 1058 МГц 6008 МГц 256 бит 192,2 ГБ/с 1 536 11 4.2 3,0
GeForce GTX 690‡ 915 МГц x2 1019 МГц x2 6008 МГц x2 256 бит x2 192,2 ГБ/с x2 1536 x2 11 4.2 3.0
GeForce GT 720 (DDR3) 797 МГц 1,8 ГГц 64-разрядная версия 14,4 ГБ/с 192 11 4,4 2,0
GeForce GT 720 (GDDR5) 797 МГц 5 ГГц 64-разрядная версия 40 ГБ/с 192 11 4,4 2,0
GeForce GT 730 (DDR3, 64-разрядная) 902 МГц 1.8 ГГц 64-разрядная версия 14,4 ГБ/с 384 11 4,4 2,0
GeForce GT 730 (DDR3, 128-бит) 700 МГц 1,8 ГГц 128-бит 28,8 ГБ/с 96 11 4,4 2,0
GeForce GT 730 (GDDR5) 902 МГц 5 ГГц 64-разрядная версия 40 ГБ/с 384 11 4.4 2,0
GeForce GT 740 (DDR3) 993 МГц 1,8 ГГц 128-бит 28,8 ГБ/с 384 11 4,4 3,0
GeForce GT 740 (GDDR5) 993 МГц 5 ГГц 128-бит 80 ГБ/с 384 11 4,4 3,0
GeForce GTX 750 1020 МГц 1085 МГц 5 ГГц 128-бит 80 ГБ/с 512 11.2 4,4 3,0
GeForce GTX 750 Ti 1020 МГц 1085 МГц 5,4 ГГц 128-бит 86,4 ГБ/с 640 11,2 4,4 3,0
GeForce GTX 760 980 МГц 1033 МГц 6 ГГц 256 бит 192,2 ГБ/с 1 152 11 4,3 3.0
GeForce GTX 770 1046 МГц 1085 МГц 7 ГГц 256 бит 224,3 ГБ/с 1 536 11 4,3 3,0
GeForce GTX 780 863 МГц 900 МГц 6 ГГц 384-битный 288,4 ГБ/с 2 304 11 4,3 3,0
GeForce GTX 780 Ti 875 МГц 928 МГц 7 ГГц 384-битный 336 ГБ/с 2 880 11 4,3 3.0
GeForce GTX ТИТАН 837 МГц 876 МГц 6 ГГц 384-битный 288,4 ГБ/с 2 688 11 4,3 3,0
GeForce GTX ТИТАН Черный 889 МГц 980 МГц 7 ГГц 384-битный 336 ГБ/с 2 880 11,2 4,4 3,0
GeForce GTX TITAN Z‡ 705 МГц 876 МГц 7 ГГц 384-битный 336 ГБ/с 2 880 11 4.4 3,0
GeForce GTX 960 1127 МГц 1178 МГц 7 ГГц 128-бит 112 ГБ/с 1 024 12 4,4 3,0
GeForce GTX 970 1050 МГц 1178 МГц 7 ГГц 256 бит 224 ГБ/с 1 664 12 4,4 3,0
GeForce GTX 980 1126 МГц 1216 МГц 7 ГГц 256 бит 224 ГБ/с 2 048 12 4.4 3,0
GeForce GTX 980 Ti 1000 МГц 1075 МГц 7 ГГц 384-битный 336 ГБ/с 2 816 12.1 4,5 3,0
GeForce GTX ТИТАН X 1000 МГц 1075 МГц 7 ГГц 384-битный 336 ГБ/с 3 072 12.1 4,5 3,0

† Некоторые графические процессоры используют два тактовых сигнала: более высокий для шейдерных процессоров и более низкий для остальной части чипа.
†† Эта видеокарта имеет два графических процессора, работающих параллельно (SLI). Опубликованные спецификации относятся только к одному из чипов.
* Производитель может установить другую тактовую частоту или интерфейс памяти, так что будьте внимательны, так как не все видеокарты на этом чипе имеют эту спецификацию. Скорость передачи памяти будет зависеть от используемого интерфейса и тактовой частоты.
(TC) означает TurboCache. TurboCache — это технология, которая позволяет видеокарте имитировать больший объем видеопамяти, используя часть оперативной памяти основной системы в качестве видеопамяти.Прочитайте наш учебник на эту тему, чтобы лучше понять эту функцию.
 
Версия DirectX указана в таблице ниже:

DirectX Модель шейдера
7,0
8.1 1,4
9,0 2,0
9.0с 3,0
10 4,0
10.1 4.1
11 5,0
11.1 5.1
11,2 5,2
12 6,0
12.1 6.1

Подробное обсуждение этого вопроса см. в нашем руководстве по DirectX.

лучших дешевых видеокарт для Fortnite [2022]

Fortnite, без сомнения, одна из самых популярных игр всех времен.Кроме того, это одна из тех игр, которая проверила возможности многих графических процессоров, обещавших обеспечить наилучшие игровые возможности. Честно говоря, высокопроизводительные графические процессоры от Nvidia, особенно из семейства RTX, как правило, лучше всего подходят для Fortnite. Но не все могут получить в свои руки эти высокопроизводительные карты из-за их премиальной цены. Итак, есть ли более дешевые видеокарты, которые следует учитывать, когда дело доходит до игры в Fortnite?

Да, есть недорогие видеокарты для игры в Fornite с настройками 1080p.Более того, эти графические процессоры действительно не позволяют вам сломать свой банковский счет, чтобы играть в Fortnite во всей ее красе. Так что, если вы любите бюджет, эти видеокарты стоит рассмотреть в это время года.

Требования к видеокарте для Fortnite

Вот официальные требования к видеокарте для игры

Минимальные требования: Nvidia GTX 660 или AMD HD 7870

Обзоры лучших дешевых видеокарт для Fortnite

Вот некоторые из наших главных соображений:

1.EVGA GeForce GTX 1060 SC игровая | В целом лучший бюджетный графический процессор для Fortnite

Основные характеристики:

  • Часовая скорость 1607 MHZ
  • 6 ГБ GDDR5 Memory
  • DirectX 12
  • 192-битный интерфейс памяти
  • 1x DVD-D, 3 x DP, 1x HDMI 2.0 порты
  • Макс. Разрешение 7680 × 4320
  • 400W PSU Требование

GeForce GTX 1060 SC, графический процессор, который идеально сочетает в себе цену и производительность. Хотя эта видеокарта не соответствует линейке RTX от Nvidia, она обеспечивает отличную производительность при игре в такие игры, как Fortnite и PUBG.Благодаря 6 ГБ памяти GDDR5 с тактовой частотой 1607 МГц GTX 1060 SC позволяет превзойти пороговое значение в 60 кадров в секунду без снижения игровых настроек.

Нам очень понравился его компактный дизайн и размеры, благодаря которым этот GPU легко помещается в тесных корпусах ПК. Кроме того, она потребляет меньше энергии по сравнению с другими игровыми картами среднего класса на рынке.

В верхней части видеокарты установлен радиальный вентилятор для отвода лишнего тепла. В технологии охлаждения Nvidia ACX используются оптимизированные лопасти вентилятора, обеспечивающие больший приток воздуха при меньшем энергопотреблении.Кроме того, система подшипников с двумя медведями помогает вентилятору двигаться на полной скорости без шума.

Теперь перейдем к производительности GTX 1060 SC при игре в Fortnite на настройках 1080p. Мы не разгоняли этот GPU, и большую часть времени fps был выше среднего без каких-либо лагов. Мы играли в Fortnite на мониторе с разрешением 1080p 144 Гц и большую часть времени получали более 100 кадров в секунду.

Однако имейте в виду, что во время тестирования этого графического процессора с Fortnite мы использовали Core i9 9900K со штатной тактовой частотой 3.6 ГГц. Так что, если вы используете процессор старшего поколения с GTX 1060 SC, средний показатель fps может отличаться для вас.

В целом, это отличный чип среднего класса, который намного лучше работает в таких играх, как Fortnite, где нет вариантов лагов или сбоев в многопользовательских боевых сценах.

2. XFX Radeon RX 580 GTS Black Edition | Самый доступный графический процессор AMD для Fortnite

Основные характеристики :

  • Разгон до 1405 МГц
  • 8 ГБ видеопамяти GDDR5
  • 256-битный интерфейс памяти
  • Технология охлаждения с двойным рассеиванием XFX
  • 3xDP, 1xHDMI, 1xDVI видеовыход
  • PCIe 934.0
  • 7680 x 4320 Максимальное разрешение
  • Требуемый блок питания 400 Вт

Несомненно, Radeon RX 580 GTS Black Edition остается первым выбором многих бюджетных геймеров по всему миру. Этот графический процессор усложнил жизнь самым многообещающим игровым картам Nvidia, таким как GTX 1060 и GTX 1070, во многих играх. И причина этого в его высоких характеристиках и производительности в играх AAA.

Теперь, когда на рынке бушуют видеокарты типа GDDR6, такие графические процессоры, как RX 580, по-прежнему занимают лидирующие позиции, когда дело доходит до игр в такие известные игры, как Fortnite, PUBG и Overwatch.Прежде всего потому, что эта видеокарта разогнана на заводе до частоты 1405 МГц, что достаточно для обеспечения стабильной частоты кадров в разрешении 1080p.

Radeon RX 580 GTS Black Edition — феноменальная видеокарта с 2304 потоковыми процессорами, 8 ГБ видеопамяти GDDR5 и 256-битным интерфейсом памяти. Мы в GPURepublic являемся поклонниками 256-битных видеокарт из-за их мощных игровых возможностей, и в данном случае эта карта оправдывает наши ожидания.

А если мы перейдем к решению по охлаждению этой видеокарты, то у нас вообще не останется слов.Например, этот графический процессор разработан с учетом всей работы, которую может взять на себя геймер.

Кроме того, он оснащен технологией охлаждения с двойным рассеянием XFX от AMD, которая дает ему небольшое преимущество перед GTX 1660 SC от Nvidia. Кроме того, два мощных вентилятора повышают тепловую эффективность и делают этот графический процессор идеальным выбором для оверклокеров.

Теперь поговорим об игровом процессе Fortnite на этом графическом процессоре. Как и в случае с Nvidia GTX 1660 SC, мы установили разрешение игры на FHD. RX 580 GTS Black Edition показал впечатляющую производительность в Fortnite при разрешении 1080p с частотой кадров более 60 кадров в секунду большую часть времени.

Однако имейте в виду, что RX 580 GTS потребляет больше энергии по сравнению с Nvidia GTX 1660 SC. Поэтому, если вы решили использовать эту видеокарту, убедитесь, что у вас есть блок питания высокой мощности, чтобы избежать каких-либо проблем.

В общем и целом, эта видеокарта является достойным вложением средств, чтобы играть в современные игры, не разоряясь на флагманские карты высокого класса. Все, что вам нужно, это хороший процессор и достаточно оперативной памяти, которая соответствует возможностям этого графического процессора.

3.GeForce GTX 1050 Ti | Экономичный графический процессор для Fortnite

Основные характеристики:

  • Boost Clock 1430 MHZ
  • 4GB GDDR5 Memory
  • 128-битный интерфейс памяти 0
  • DirectX 12
  • 300 PSU 124460
  • 300 PSU Рекомендуется
  • 8K Разрешение Вывод

Старый помощник GTX 1050 TI не совпадает с современным графическим процессором на сегодняшний день, но он может позволить вам без проблем удовлетворить вашу тягу к Fortnite. Теперь эта видеокарта находится на нижней стороне бюджета и спецификаций.Если вы действительно хотите сэкономить немного денег на других игровых периферийных устройствах, вы можете сразу же выбрать эту видеокарту, и она вас не подведет.

GTX 1050 Ti получила награду за поддержку многих требовательных игр AAA. Единственное, что заставило этот GPU зайти так далеко, — это 4 ГБ памяти GDDR5 и повышенная тактовая частота до 1430 МГц. Вы даже можете играть в такие игры, как Batman: Arkham Origins, на максимальных настройках на этой карте. И играть в Fortnite на этой малобюджетной карте вообще не проблема.

Кроме того, эта видеокарта потребляет мало энергии.Таким образом, нет необходимости покупать дорогой блок питания вторичного рынка для его питания, поскольку эта карта действительно не нуждается во внешнем разъеме питания. Нам нравится этот GTX 1050 Ti за его игровой характер среднего уровня, хотя он находится на стороне начального уровня рынка графических процессоров.

Переходим к игровой производительности GTX 1050 Ti в Fortnite. Удивительно, но этот GPU не подвел даже на максимальных настройках. Однако средняя частота кадров при игре в Fortnite большую часть времени при высоких настройках составляла около 55-85 кадров в секунду, что меньше по сравнению с GTX 1660 SC и RX 580 GTS Black Edition.Но при такой более низкой цене и более низких характеристиках, по крайней мере, мы можем пренебречь дополнительными fps.

4. ZOTAC GeForce GT 1030 | Самая дешевая видеокарта для запуска Fortnite

Основные характеристики :

  • 1227 MHZ базовые часы
  • 2 ГБ DDR3 видео памяти
  • PCIE 3.0
  • 64-битный интерфейс
  • 1x VGA, 1xhdmi 2.0b
  • низкопрофильный кронштейн
  • 300W PSU потребности

здесь мы идем, ZOTAC GeForce GT 1030, низкопрофильная видеокарта, предназначенная для корпусов малого форм-фактора.Вдобавок ко всему, эта видеокарта идеально подходит для малобюджетных геймеров, которые не хотят тратить больше 150 долларов. Это скорее недорогой графический процессор, который может запускать Fortnite на вашем ПК со средними настройками.

Благодаря архитектуре Nvidia Pascal эта низкопрофильная видеокарта обеспечивает значительную производительность в играх. Zotac GeForce GT 1030 с 2 ГБ памяти DDR3 и 64-разрядным интерфейсом идеально подходит для игр с разрешением 720p, но при разрешении 1080p зависания и сбои станут вашей судьбой.

Преимущество этой карты в ее низкопрофильных размерах.Вы можете легко разместить этот графический процессор в тесных корпусах ПК. Этот графический процессор — хороший вариант для ПК, которому требуется маломощный и миниатюрный графический процессор. Он потребляет меньше энергии и большую часть времени остается прохладным. Zotac GeForce GT 1030 не предназначена для игр с высокой частотой кадров, но для легких игр это может быть идеальным выбором.

Мы играли в Fortnite на этом самом дешевом графическом процессоре, и он работал так, как мы ожидали, производительность, которую можно ожидать от малобюджетных карт стоимостью менее 150 долларов. Даже при настройках 720p средняя частота кадров составляла от 55 до 65.Но игра была играбельной и лагов почти не было заметно. Если вы соедините графический процессор с хорошим процессором, он наверняка сможет обеспечить более 70 кадров в секунду.

Таблица сравнения производительности

графические карты Средняя частота кадров в Fortnite (1080P)
EVGA GeForce GTX 1060 SC 147FPS
XFX Radeon RX 580 GTS Black Edition 9000FPS
Geforce GTX 1050 Ti 85fps
ZOTAC GeForce GT 1030 55fps

Внутриигровые настройки также влияют на производительность графического процессора.Вот настройки, которые мы сделали при тестировании Fortnite.

    • Post-обработка и антиквалификация : OFF
    • Shadows: Средний / ВЫКЛ (в случае Zotac GT 1030)
    • Render Расстояние: EPIC
    • Разрешение : 1080P
    • Разрешение дисплея : 100%
    • Эффекты : Средний
    • V-Sync: Выкл.
    • Размытие в движении: Выкл.

      Если вы новичок и не знаете, как выбрать лучший графический процессор для игры в Fortnite, следуйте нескольким важным рекомендациям:

      VRAM (видеопамять)

      Как мы уже обсуждали минимальные требования для игры в Fortnite, все, что вам нужно, — это видеокарта с минимум 2 ГБ видеопамяти.Имейте в виду, что это минимум для игры на самых низких настройках. Если вы хотите использовать настройки 1080p в Fortnite, лучше использовать графический процессор с не менее 6 ГБ видеопамяти.

      Расчетная мощность

      TDP означает расчетную тепловую мощность, и это максимальная мощность, которую может потреблять графический процессор в ваттах. Некоторые видеокарты имеют более низкий TDP, тогда как другим для правильной работы требуется мощный блок питания. Прежде чем выбрать графический процессор, лучше узнать о рейтинге TDP этой конкретной карты.

      Кроме того, лучше иметь в компьютере надежный источник питания для питания графического процессора. Количество ватт, необходимое для вашего блока питания, зависит от типа выбранного вами графического процессора. Все графические процессоры, которые мы здесь перечислили, могут легко работать с блоком питания мощностью 550 Вт.

      Размеры

      Некоторые графические процессоры больше по размеру по сравнению с другими, заменяющими почти 2 слота шириной на материнской плате. Как правило, графические процессоры с более чем одним вентилятором громоздки и не помещаются в корпус ПК малого форм-фактора.Итак, убедитесь, что у вас есть просторный корпус для ПК, если вы собираетесь использовать громоздкий графический процессор.

      Связь

      Если вы хотите играть в Fortnite с более высоким разрешением, например 4K, убедитесь, что выбранный вами графический процессор имеет хотя бы один разъем HDMI. Кроме того, современные мониторы отказываются от старых адаптеров VGA, поэтому лучше использовать графический процессор, поддерживающий расширенный интерфейс дисплея.

      И Nvidia, и AMD производят видеокарты с возможностью подключения HDMI и DisplayPort. Если вы хотите наслаждаться Fortnite со скоростью 240 кадров в секунду, вам понадобится порт DisplayPort или порт HDMI, чтобы не отставать от скорости вашего монитора с частотой 240 Гц.

      Современные видеокарты от Nvidia и AMD оснащены такими технологиями, как G-Sync и FreeSync, которые обеспечивают лучшую производительность на мониторах с более высокой частотой обновления.

      Контрольные показатели

      В настоящее время поиск тестов — лучший способ проверить производительность видеокарты, не покупая ее. Сравнительный анализ дает вам общее представление о том, какую частоту кадров вы можете ожидать в конкретной игре в зависимости от выбранной вами графической карты.

      Но не ведитесь сразу на результаты тестов.Есть и другие факторы, влияющие на результат теста, такие как ЦП, ОЗУ и т. д.

      Рабочий стол, используемый для тестирования этих графических процессоров

        • Процессоры : CORE I9 9900K CONITED на 3.8 GHZ
        • RAM: 16GB DDR4 Corsair 3200 MHZ
        • Материнская плата: ASUS asus Z390
        • Склад : Samsung Evo 1TB SSD
        • PSU: Cooler Master 750 Вт
        • Монитор: Acer Nitro XZ342CK Pbmiiphx 144 Гц

        До

        Рекомендация

        Итак, это были одни из лучших недорогих видеокарт, на которых можно легко запустить Fortnite.Что касается нашей рекомендации, мы обнаружили, что RX580 GTS Black Edition более совместима с такими играми, как Fortnite и PUBG. Причиной этого является 256-битный интерфейс и 8 ГБ памяти GDDR5 по доступной цене. И если вы действительно хотите сэкономить и не заботитесь о частоте кадров, нет лучшей карты, чем GTX 1050 Ti. Эта карта может позволить вам играть в Fortnite с более высокими настройками, если у вас есть высокопроизводительный процессор и 8 ГБ оперативной памяти.

        Часто задаваемые вопросы

        Может ли низкопрофильный GT 1030 работать с Fornite?

        Хотя GT 1030 является видеокартой начального уровня, она может работать с Fortnite на низких-средних настройках.Нам удалось поиграть в Fortnite на GT 1030 с настройками 1080p и получить в среднем 55 кадров в секунду. Однако, если вы уменьшите настройки до 720p, вы также можете ожидать более 60 кадров в секунду.

        Какой графический процессор может запускать Fortnite со скоростью 60 кадров в секунду?

        Графическая карта с оперативной памятью DDR4 объемом не менее 4 ГБ и интерфейсом памяти GDDR5 позволит вам играть в Fortnite со скоростью 60 кадров в секунду. Из нашего списка GTX 1050 Ti — самая удобная видеокарта, которая достигает 85 кадров в секунду при настройках 1080p в Fortnite.

        Какая видеокарта может запускать Fortnite со скоростью 240 кадров в секунду?

        Чтобы добиться гораздо более высокой частоты кадров, лучше выбрать более мощную видеокарту серии RTX от Nvidia или серии RX 6000 от AMD.Кроме того, вы должны рассмотреть возможность монитора с более высокой частотой обновления, чтобы достичь этого рубежа. Монитор с частотой 60 Гц или 144 Гц может ограничить вас до 144 кадров в секунду, даже если у вас есть видеокарта высокого класса, такая как RTX 3080 или 3090.

        Можно ли запустить Fortnite без видеокарты?

        Хотя. интегрированные чипы на материнской плате в последние годы стали более мощными, тем не менее, в такие игры, как Fortnite, немного сложно играть без выделенной видеокарты. Даже если вам удастся играть в Fortnite без графического процессора, вы не сможете использовать настройки выше 720p.Даже при настройках 720p вы будете испытывать лаги и задержки в игровом процессе.

        Привет, я автор и основатель этого блога. У меня более 10 лет опыта работы в отрасли. За время своего путешествия я протестировал и проверил сотни видеокарт для пользовательских сборок ПК. Я верю, что мои знания и опыт помогут вам выбрать карту, которая действительно соответствует вашим потребностям и бюджету.

        Лучшая видеокарта для фильмов 4k — наш лучший выбор

        Какая лучшая видеокарта для фильмов 4K ? Поскольку многие из лучших фильмов сейчас снимаются в формате 4K (и большинство пользователей YouTube, потоковых платформ и даже веб-сайтов социальных сетей), вам необходимо найти видеокарту, которая позволит вам увидеть все в полной мере.

        Когда у тебя видеокарта для просмотра фильмов , все выглядит четче и больше похоже на реальную жизнь. У вас не будет проблем с рендерингом или задержкой. Контраст будет отличный даже на тех фильмах, где не оплачивали счет за освещение.

        Сравнительная таблица

        а какая видеокарта лучше для 4К фильмов?

        При поиске лучшей видеокарты для фильмов 4K мы смогли сузить список вариантов до нескольких, которые действительно выделялись.Это выбор, который делает цвета яркими, помогает оживить природу и многое другое.

        Ознакомьтесь с некоторыми из наших любимых:

        1. EVGA GeForce GT 1030 SC 2 ГБ GDDR5, пассивная

        Технические характеристики:
        • Память: 2 ГБ GDDR5 64-битная память
        • Низкопрофильный дизайн: Длина карты 150 мм
        • Тактовая частота ядра: 1252 МГц в режиме разгона и 1227 МГц в игровом режиме
        • Boost Clock: 1506 МГц в режиме разгона и 1468 МГц в игровом режиме
        • Совместимость: 1 x Dual-Link DVI-D 1 x HDMI 2.0b
        • Потоковые процессоры: 384
        • Интерфейс: PCI Express 3.0 x4
        • Разгон одним щелчком мыши с помощью AORUS Graphics Engine
        Обзор:

        EVGA GeForce FT — одна из лучших низкопрофильных видеокарт для фильмов 4K . Он способен идти в ногу с визуальными изменениями фильмов, и многие рецензенты также отметили, насколько хорошо он работает, когда вы смотрите много более мрачных фильмов.

        Видеокарта — отличный вариант с низкой ценой, и она имеет энергосберегающую сборку , поэтому вам не придется конкурировать с системой охлаждения вашего ноутбука.Он использует только 30 Вт TDP, поэтому вы можете использовать его и в сборке с низким энергопотреблением.

        Если у вас есть свободный слот PCIe, это отличный вариант. Если у вас нет этого медленного, вы можете рассмотреть другой вариант.

        EVGA GeForce GT 1030 — не самая новая видеокарта на рынке, но все же — хороший вариант по цене . Что касается 4K, то он делает замечательную работу. Это также немного дешевле, чем большинство других вариантов.

        С тех пор как он появился на рынке в течение некоторого времени, мы смогли отследить, нравится ли он людям и есть ли какое-либо ухудшение производительности, и большинство людей, кажется, довольны тем, как он держится .Не так много людей жаловались на то, что не было очевидно для них с самого начала.

        EVGA GeForce GT 1030 — это видеокарта 4K , состоящая из 1,8 миллиарда транзисторов , но при этом занимающая всего 70 мм². Есть много причин, по которым они смогли это сделать, но главная причина — 14-нм техпроцесс FinFET в производстве.

        Для любителей кино он поставляется с тремя потоковыми мультипроцессорами, которые помогают оживить ваши фильмы.

        Плюсы:

        Чрезвычайно доступный, обеспечивает потрясающее качество изображения; отсутствие деградации со временем; низкий форм-фактор; утилита с одним слотом; продажи довольно часто

        Минусы:

        Распродано на многих платформах; теперь немного старше

        2. Компьютерная графическая карта Gigabyte GeForce GT 1030 GV-N1030D5-2GL Low Profile 2G

        Технические характеристики:
        • Память: 2 ГБ GDDR5 64-битная память
        • Низкопрофильный дизайн: Длина карты 150 мм
        • Тактовая частота ядра: 1252 МГц в режиме разгона и 1227 МГц в игровом режиме
        • Boost Clock: 1506 МГц в режиме разгона и 1468 МГц в игровом режиме
        • Совместимость: 1 x Dual-Link DVI-D 1 x HDMI 2.0b
        • Потоковые процессоры: 384
        • Интерфейс: PCI Express 3.0 x4
        • Разгон одним щелчком мыши с помощью AORUS Graphics Engine
        Обзор:

        GeForce GT 1030 от NVIDIA — еще один отличный вариант графической карты для фильмов . Он дешевле и не потребляет много энергии. Его можно использовать в казуальных играх, но это действительно лучший вариант для потоковой передачи фильмов.

        GeForce GT 1030 произведен по 14-нанометровой технологии , имеет 384 ядра и базируется на чипе GP 108.Он имеет базовую тактовую частоту 1227 МГц и турбо-тактовую частоту 1468 МГц. Это упростит потоковую передачу и сократит время рендеринга.

        Есть и другие карты от GeForce, использующие другую технологию, но эта использует 64-битную шину, которая имеет доступ к 2 ГБ памяти GDDR5 на частоте 6 ГГц. Его пропускная способность составляет около 48 ГБ/с, но вы не заметите большой разницы.

        Это видеокарта не для тех, кто хочет хардкорных игр, а для тех, кто ищет для просмотра фильмов в 4K. Это также популярный вариант для графических дизайнеров или редакторов фильмов , потому что они могут редактировать в режиме реального времени.

        Есть несколько причин выбрать эту карту из других вариантов в этом списке. GeForce GT 1030 имеет очень низкое энергопотребление с TDP 30 Вт. Вам не нужно будет добавлять еще один разъем питания. Люди будут использовать его в компактном корпусе и на половинной высоте. Можно даже использовать с пассивной системой охлаждения .

        Важно отметить, что он подходит для более повседневного использования компьютера, поскольку не поддерживает технологии SLI, Ansel, G-SYNC, GameStream, VR Ready и Simultaneous Multi-Projection.

        Плюсы:

        Низкая цена; создает хорошие изображения; Низкопрофильный; легкодоступный; совсем не занимает много места

        Минусы:

        Не для игр; несколько трудно получить; не поддерживает различные инструменты; никогда не поступит в продажу

        3. Компьютерные графические карты MSI GT 1030 2GD4 LP OC

        Технические характеристики:
        • Серия: GeForce GT 1030 2G LP OC
        • Марка: MSI
        • Графический сопроцессор: NVIDIA GeForce GT 1030
        • Интерфейс видеовыхода: DisplayPort, HDMI
        • Марка набора микросхем: Nvidia
        Обзор:

        MSI GT 1030 — хороший вариант начального уровня от NVIDIA .Он основан на архитектуре Pascal, а это значит, что он будет более бюджетным вариантом и будет потреблять меньше энергии. Большинство людей будут использовать его для казуальных игр или потокового просмотра фильмов .

        Спецификации этой карты аналогичны многим другим в этом списке, так что на самом деле нет ничего особенного. Это был , созданный по 14-нм технологии , имеет 384 ядра и базируется на чипе GP 108. Он имеет базовую тактовую частоту 1227 МГц и турбо-тактовую частоту 1468 МГц.

        Он использует 64-битную шину, имеет доступ к 2 ГБ памяти GDDR5 на частоте 6 ГГц, и многие люди, которые его используют, скажут, что он работает немного лучше, чем заявлено в этих спецификациях. Фактически, многие говорят, что карта MSI будет работать лучше, чем карты, которые на 25% дороже .

        Он используется во многих обычных настольных компьютерах, которые немного дороже, или вы можете купить его отдельно для сборки собственного компьютера. Если вы графический дизайнер , любитель фильмов, любитель YouTube или часто транслируете игры, у вас могут быть отличные варианты.Однако, если вы собираетесь транслировать тяжелые игры, это может быть не лучший выбор.

        У этой карты есть несколько явных преимуществ, на которые я хотел бы обратить внимание, — это энергопотребление, с которым у меня всегда возникают проблемы при потоковой передаче фильмов.

        Вам не придется беспокоиться о том, что ваш вентилятор гудит в фоновом режиме или о перегреве компьютера. Эта карта имеет TDP всего 30 Вт, что означает, что она работает прохладно.

        Важно отметить, что, как и некоторые другие карты в этом списке, она не поддерживает технологии SLI, Ansel, G-SYNC, GameStream, VR Ready и Simultaneous Multi-Projection.Это не будет проблемой для большинства людей, но может стать проблемой для геймеров .

        Плюсы:

        Более доступный вариант; легко получить; низкий профиль

        Минусы:

        Не для геймеров; не поддерживает различные функции; никогда не поступает в продажу или снижается в цене

        4. Gigabyte Geforce GTX 1050 Ti OC 4 ГБ GDDR5 128-битная графическая карта PCI-E

        Технические характеристики:
        • Потоковые процессоры: 640 ядер CUDA
        • Интерфейс: PCI Express 3.0×16
        • Поддерживаемые API: DirectX: 12
        • OpenGL: 5
        • Скорость памяти: 7 Гбит/с
        • Конфигурация памяти: 2 ГБ
        • Интерфейс памяти: GDDR5
        • Ширина интерфейса памяти: 128-бит
        • Разъемы дисплея: 1 x DisplayPort 1.4, 1 x HDMI 2.0b и 1 x DVI-D DL
        • Цифровое разрешение: 7680 x 4320 при 60 Гц
        Обзор:

        Последней видеокартой для фильмов 4K является Gigabyte Geforce GTX 1050.Эта карта предлагает одни из лучших характеристик в списке. Он предлагает чрезвычайно малый форм-фактор, но при этом выдает высококачественные изображения .

        Это идеальный вариант для тех, кто любит смотреть фильмы или сериалы в потоковом режиме. Он не требует никаких дополнительных подключений питания и получает все, что ему нужно, от слота PCI Express x 16. Это поможет сохранить другие ресурсы свободными , что важно, когда вы создаете низкопрофильные машины или когда вам нужна машина, которая не перегревается.

        Если вы не собираетесь собирать новый компьютер, вы можете не получить эту опцию, потому что она не входит в стандартную комплектацию очень многих машин.

        Это будет немного дороже, чем некоторые другие варианты в списке, но ненамного. Это стоит того, чтобы потратить дополнительные деньги. Это низкопрофильная карта, но она по-прежнему полноразмерная, что ограничивает некоторые случаи, в которые она поместится.

        В целом, Gigabyte Geforce GTX 1050 — отличный вариант , если вы не хотите тратить слишком много , но все равно хотите отличный вариант.Это даст вам действительно хорошие результаты потоковой передачи.

        Плюсы:

        Самая маленькая GTX 1050 на рынке; это очень доступно; нет необходимости в подключении внешнего питания; почти всегда есть в наличии

        Минусы:

        Все еще полная высота, поэтому не во все чехлы поместится; не всегда поддерживает 60fps; работает нестабильно при высоких настройках

        Некоторые другие вещи, которые следует учитывать при выборе видеокарты

        Конечно, есть и другие вещи, которые следует учитывать при выборе видеокарты.Если вы будете использовать свою видеокарту только для просмотра фильмов, то на самом деле больше не о чем думать.

        Однако, если вы собираетесь играть, выполнять работу и просто использовать свой компьютер, вы можете рассмотреть некоторые другие варианты. Для некоторых фильмов 4K использование встроенного графического процессора в ваш процессор будет достаточно мощным. Прежде чем инвестировать в новый GPU, вам нужно проверить, как все выглядит . Часто вы можете получить в основном это, и люди не подумают, что стоит покупать совершенно новую карту.

        Вы также можете рассмотреть удлинитель карты, который будет подключаться к материнской плате ПК, который по сути является адаптером, который поможет улучшить качество изображений . Это действительно зависит от того, как вы настроили свою систему и насколько глубоко вы хотите получить.

        Для фильмов 4K вам понадобится полный эффект съемки.

        Хотя старые фильмы не в формате 4K (если только они не были ремастерированы, чего не так много), вы все равно увидите лучшее качество изображения в тех действительно старых фильмах, которые почти невозможно смотреть на обычном экране.

        В фильме 4К все будет четко. Цвета более насыщенные и яркие, чем . Черные выглядят глубже, чем когда-либо раньше — просто помните, что глядя на любой экран сейчас, вы поймете, насколько хорош 4K.

        Настроить систему на 4K уже не так просто, как раньше.

        Почему видеокарта имеет значение?

        Большинство людей, которые смотрят фильмы, знают о типичных проблемах с качеством изображения. Есть серьезные геймеры и те, кто снимает видео, которым нужна мощная видеокарта для работы .По мере того, как графические процессоры становятся быстрее, а технологии совершенствуются, производители должны делать более качественные видеокарты.

        Если вы не геймер, в прошлом наличие хорошей видеокарты могло не иметь большого значения. Вы, вероятно, не особо заботились о графическом процессоре, если только он не был вам нужен для конкретных приложений. Все больше и больше начинает иметь значение .

        Быстрые советы по выбору лучшей видеокарты для фильмов 4K

        Если вы собираетесь купить новую видеокарту для просмотра фильмов в формате 4K, вот несколько советов:

        • Вам следует накопить денег на процессор вашего компьютера .Вам понадобится хороший процессор для подключения видеокарты. Ваша система должна хорошо работать вместе — одной хорошей детали недостаточно.
        • Убедитесь, что разрешение соответствует вашему монитору. Многие обычные видеокарты подходят для игр или просмотра фильмов с разрешением 1080p, но для просмотра с разрешением, близким к 4K, вам понадобится что-то особенное.
        • Вы также хотите учитывать частоту обновления . Если ваш монитор имеет трехзначную частоту обновления, вам понадобится более мощная карта и процессор, чтобы полностью раскрыть свой потенциал.Если ваш монитор работает с максимальной частотой 60 Гц и разрешением 1080p, нет необходимости платить за мощную карту .
        • Еще одна вещь, о которой вам следует подумать, — это мощность и объем памяти, необходимые вашей карте. Убедитесь, что в вашем корпусе достаточно места и что блока питания достаточно для всего этого.
        • Посмотрите на стартовую цену. Вы хотите проверить, если вы получаете хорошую сделку. Посмотрите на цену, по которой карта была запущена, а затем посмотрите, что она продает сейчас.
        • Не получать двойные карты .
        • Не рассчитывайте на разгон. Это не поможет вам с потоковой передачей фильмов 4K.

        В целом, получить видеокарту для 4K-фильмов не составит труда. Сегодня на рынке появляется все больше и больше вариантов, поэтому у вас будет много материала для изучения. Обязательно посмотрите цену , характеристики и отзывы.

        Однако вам действительно нужно подумать об остальной части вашего компьютера и о том, будет ли он поддерживать потоковую передачу 4K и фильмы.

        Nvidia RTX 3070 против 3080 против 3090

        Графические карты Nvidia Ampere поколения RTX 3000 являются одними из самых захватывающих за многие годы, сделав огромный скачок в общих вычислениях, трассировке лучей и производительности искусственного интеллекта. Они опережают даже самые мощные графические процессоры предыдущего поколения Turing и могут дать каждому игроку дозу зависти к обновлению.

        Если вам нужна видеокарта для игр с высоким FPS 4K или даже 8K, новые RTX 3070, 3080 и 3090 от Nvidia — одни из лучших карт для этой работы.Но с резкими различиями в производительности, возможностях и цене важно выбрать правильный графический процессор RTX 3000 для вашего следующего обновления игрового ПК.

        Вот сравнение этих трех сверхмощных видеокарт, чтобы вы могли сделать правильный выбор.

        По номерам

        Все три видеокарты серии RTX 3000 невероятно мощные и обеспечивают одну из самых впечатляющих компьютерных производительностей в играх, которые мы когда-либо видели. Единственная другая видеокарта, которая может даже надеяться идти в ногу с самой доступной из них, — это RTX 2080 Ti, но даже эта карта сильно отстает от других.

        Характеристики этих новых карт сами по себе рисуют картину того, насколько они более функциональны, чем их предшественники.

        2
        RTX 3070 9001 RTX 3090
        GPU GA104-300 GA102-200 GA102-300
        Транзисторы 17,4 млрд 28,3 млрд 28.3 миллиарда
        5888 5888 8704 10496
        46 46 68 82
        тензорных ядер (третьего поколения ) 184 272 328
        База часов 1500MHz 1440MHz 1395MHz
        подталкивания часы 1725MHz 1710 МГц 1695MHz
        Память 8GB GDDR6 10GB GDDR6x 24GB GDDR6X
        скорость памяти 14 Гбит / с 19 Гбит / с 19.5 GBPS
        Memory Bus 256-BIT 320-BIT
        448 Гбит / с 760 GBPS 936 GBPS
        TDP 220 Вт 320 Вт 350 Вт

        Почему он такой мощный?

        По сравнению с другими поколениями

        Одной из причин того, что поколение RTX 3000 намного мощнее, чем все, что было раньше, является сокращение узла процесса.

        В то время как поколение RTX 2000 Turing использовало 12-нм процесс TSMC FinFET, серия Ampere RTX 3000 основана на 8-нм узле Samsung. Это делает его гораздо более плотным графическим процессором, более чем удваивая количество транзисторов для сопоставимых карт из поколения в поколение.

        Количество ядер CUDA также намного больше в этом поколении, что также объясняет наибольшую разницу в производительности между графическими процессорами серии RTX 3000. Однако это не так однозначно, как может показаться из таблицы спецификаций.

        Графические процессоры поколения Ampere обозначают ядра CUDA совершенно иначе, чем графические карты Nvidia предыдущих поколений. Традиционно графические процессоры Nvidia включают два типа ядер CUDA. Некоторые обрабатывают вычисления с плавающей запятой (FP32) на основе диапазона чисел, а некоторые обрабатывают целочисленные (INT32) вычисления над целыми числами.

        Вместо этого серия RTX 3000 имеет выделенные ядра FP32, а также ядра, которые при необходимости могут попеременно выполнять вычисления как FP32, так и INT32.

        Прирост производительности во многом зависит от управляемой рабочей нагрузки, а тяжелые задания FP32 приводят к гораздо большему повышению производительности. Что касается спецификации, Nvidia теперь перечисляет все эти ядра как ядра CUDA.

        Согласно более традиционным показателям, RTX 3070 будет иметь 2944 ядра CUDA FP32 и еще 2944 ядра CUDA INT32/FP32. Это важно помнить, сравнивая эти карты с более старыми поколениями, которые не отмечали ядра INT32 таким же образом.

        Сравнения внутри поколения

        Что касается сравнения RTX 3000-серии внутри поколения, это гораздо более четко.

        RTX 3080 имеет почти на 48 % больше ядер CUDA, чем RTX 3070, а RTX 3090 — еще 21 %. Хотя тактовые частоты немного снижаются по мере того, как вы поднимаетесь выше, это различие приводит к большому скачку производительности между этими картами при определенных рабочих нагрузках.

        Количество ядер RT и Tensor значительно увеличивается по мере того, как вы продвигаетесь вверх по рангу и в этом поколении графических процессоров.Это технологии второго и третьего поколения, соответственно, и они гораздо более эффективны, чем все, что Nvidia раньше включала в свои коммерческие видеокарты. Это делает их превосходными для рабочих станций и задач искусственного интеллекта, а также для трассировки лучей и DLSS для игр.

        Конфигурации памяти у этих карт тоже сильно различаются. RTX 3070 имеет традиционную конфигурацию с 8 ГБ быстрой памяти GDDR6 по 256-битной шине. Его производительность отличная, но он сильно отстает от 3080. Эта карта использует 10 ГБ новой памяти Nvidia GDDR6X для значительного увеличения пропускной способности.Его снова легко затмевает RTX 3090 с 24 ГБ еще более быстрых чипов памяти.

        TDP растет вместе с техническими характеристиками: RTX 3090 требует 350 Вт мощности и потенциала охлаждения. Вот почему все игровые ПК серии RTX 3000 должны быть оснащены мощным блоком питания и системой охлаждения.

        Игровая производительность — насколько мощны эти карты?

        Таблицы спецификаций могут рассказать вам лишь немногое о возможностях видеокарты.Синтетические тесты и результаты реальных игр дают гораздо более подробную картину, особенно когда результаты фиксируются широким кругом сторонних тестировщиков, обозревателей и пользователей. Результаты этих карт очевидны: это самые мощные видеокарты, которые когда-либо производила Nvidia.

        RTX 3070

        RTX 3070 по производительности очень близка к RTX 2080 Ti — флагману последнего поколения. Это означает, что в большинстве современных игр AAA он способен выдавать около 60 кадров в секунду при разрешении 4K, особенно когда доступен DLSS.Трассировка лучей может снизить это значение в некоторых конкретных играх, таких как Control, но 3070 — очень мощная игровая карта 4K.

        В качестве альтернативы игра с разрешением 1440p может означать гораздо более высокую частоту кадров, позволяя геймерам с мониторами с высокой частотой обновления максимально использовать их высокую частоту обновления для более плавного игрового процесса.

        RTX 3080

        В то время как RTX 3070 проигрывает 2080 Ti в некоторых играх, значительно снижая цену надежной игровой карты 4K, RTX 3080 представляет собой следующее поколение почти во всех отношениях.

        Его чистая игровая производительность на 30–50 % выше, чем у RTX 3070, гарантируя от 60 до 120 кадров в секунду почти во всех играх с разрешением 4K и всеми настройками на самом высоком уровне. Важно отметить, что его добавленное ворчание значительно увеличивает самую низкую частоту кадров на 1%, помогая устранить любое микрозаикание, которое вы можете увидеть на более слабых видеокартах.

        От Assassin’s Creed Odyssey до The Witcher III: Wild Hunt и Borderlands 3 — RTX 3080 — это огромное обновление по сравнению со всем, что было до него.В некоторых сценариях она более чем на 80% быстрее, чем ее аналог последнего поколения, RTX 2080 Super, и легко затмевает RTX 2080 Ti в каждой игре, которую вы запускаете. То же самое и с RTX 3070.

        RTX 3080 представляет собой вершину массовой игровой производительности в 2020 году. Она сталкивается с жесткой конкуренцией со стороны видеокарт AMD RDNA2, но для тех, кто хочет также воспользоваться дополнительными функциями Nvidia, такими как запись скриншотов Ansel, DLSS, G- Синхронизация и отличная поддержка потоковой передачи, RTX 3080 занимает первое место в списке высокопроизводительных игр.

        RTX 3090

        Но это не царь горы. Не совсем. Его старший брат, RTX 3090, берет все лучшее, что есть в RTX 3080, и превращает его в овердрайв.

        Он имеет на 20% больше ядер CUDA при сохранении сопоставимых тактовых частот, увеличивает скорость памяти еще на полгигабита в секунду и расширяет шину памяти. Самое главное, он увеличивает доступную память с 10 ГБ GDDR6 до 24 ГБ. Это дает ему возможность обрабатывать текстуры с более высоким разрешением в 4K, а также улучшенные функции изображения в будущих играх.

        Он также может делать то, чего раньше не делала ни одна игровая видеокарта: играть в разрешении 8K.

        Хотя 8K-телевизоры и мониторы встречаются редко, они все время становятся все более доступными. До сих пор не было возможности играть в таких гигантских разрешениях, но RTX 3090 делает это возможным в ряде игр, включая Wolfenstein: Youngblood и Doom: Eternal. DLSS 2.0 значительно улучшает частоту кадров при этом разрешении, даже если это не всегда необходимо, но в этом нет никаких «если» или «но».RTX 3090 — первая в мире видеокарта с поддержкой 8K.

        В цифрах он на 10-20% быстрее, чем RTX 3080, в играх с привязкой к GPU при разрешении 4K, обеспечивая в некоторых случаях более 100 кадров в секунду даже в требовательных играх AAA.

        RTX 3090 — дорогая карта, но так всегда бывает с самым мощным оборудованием. И это именно то, чем является RTX 3090. Самая мощная видеокарта в мире.

        Производительность трассировки лучей

        Все новые видеокарты серии RTX 3000 поставляются с ядрами RT второго поколения, которые обеспечивают производительность 2.7-кратное улучшение производительности трассировки лучей по сравнению с ядрами RT первого поколения в серии RTX 2000.

        Это означает, что даже такие карты, как RTX 3070, которые имеют сравнительно небольшое количество ядер RT, обеспечивают производительность трассировки лучей, превышающую то, что могла предложить ранее карта высшего уровня, RTX 2080 Ti.

        RTX 3080 идет значительно дальше: почти на 50% больше ядер RT и благодаря этому значительно улучшена производительность трассировки лучей. Особенно это заметно при разрешении 4K, где RTX 3080 уже имеет заметное преимущество в производительности.

        Скачок для RTX 3090 не столь драматичен, у него на 20% больше ядер RT, чем у RTX 3080. Тем не менее, он все еще более мощный, и в сценариях, которые действительно нагружают графический процессор, например, Minecraft с разрешением 4K со всеми RTX. включенными функциями, RTX 3090 обеспечивает гораздо более плавную и воспроизводимую частоту кадров, чем RTX 3080. но нет никаких сомнений в том, что карты более высокого уровня предлагают более эффективную трассировку лучей в разрешении 4K.

        Они хороши для работы и игр

        Вся необузданная мощь графических карт этого поколения не только делает RTX 3000 отличной игрой; они также отлично подходят для интенсивного рендеринга и работы с 3D. Если вы работаете в Blender, OctaneRender или VRAY, серия RTX 3000 предлагает значительное улучшение производительности даже по сравнению с графическими картами, ориентированными на рабочие станции, такими как Titan RTX, которые сами по себе стоят тысячи фунтов.

        RTX 3070, 3080 и 3090 превосходно подходят для большинства задач, хотя некоторые конкретные задачи, такие как работа с САПР, могут действительно выиграть от ориентирования на рабочую станцию ​​линейки видеокарт Titan.

        Если вам нужен графический процессор исключительно для профессиональной работы, важно проверить конкретную производительность этих карт для ваших рабочих приложений. Если вы хотите работать и играть на одном ПК, RTX 3070, 3080 и 3090 — отличные карты практически для всего.

        Требования к охлаждению, мощности и размеру

        Достаточно одного взгляда на новую линейку видеокарт RTX 3000, и вы легко поймете, что это нечто совершенно отличное от нормы. Они имеют совершенно новый дизайн кулера из всего, что Nvidia выпускала в прошлом.Это особенно верно для более дорогих 3080 и 3090, потому что их кулеры также делают их намного больше, чем даже самые большие карты прошлых лет.

        Причиной всего этого являются новые и довольно экстремальные требования к мощности карт RTX 3000.

        3070

        3070 с мощностью 220 Вт — лучшая из всех, но даже она не сильно уступает по мощности и тепловым требованиям RTX 2080 Ti — предыдущей флагманской карте. Чтобы справиться со всем этим теплом, RTX 3070 имеет конструкцию с двумя вентиляторами и большой радиатор с черными ребрами для превосходного рассеивания тепла.Это приводит к тому, что карта остается относительно тихой как в режиме ожидания, так и при полной нагрузке во время интенсивных игр, а температура остается в разумных пределах — при условии, что у вас есть хороший воздушный поток в системе.

        Если вы ищете новый игровой ПК, все игровые ПК Chillblast могут похвастаться отличной вентиляцией корпуса, независимо от того, оснащены ли они RTX 3070 или нет.

        3080

        С RTX 3080 все становится немного интереснее, поскольку он намного больше, чем RTX 3070, и имеет размеры на четыре сантиметра больше.Это делает ее заметно больше, чем почти любую другую видеокарту, поэтому установка этой карты в некоторые корпуса M-ATX может быть затруднена. Founders Edition по-прежнему имеет двухслотовый кулер, но его конструкция кардинально отличается от традиционных комбинаций вентиляторов радиатора графических процессоров.

        В нем используется двухтактная конструкция, при которой самый задний вентилятор вытягивает холодный воздух из-под платы и проходит через внутренний радиатор, в то время как вентилятор на противоположном конце выталкивает теплый воздух сзади или, если он установлен традиционно. , верхняя часть карточки.Это эффективное решение для охлаждения, обеспечивающее впечатляюще низкие температуры. Если вы используете карту в течение длительного времени, уровень шума может увеличиться, но это все же улучшение по сравнению с эталонными картами Nvidia старшего поколения.

        Альтернативы сторонних производителей с решениями для охлаждения с тремя вентиляторами и большими радиаторами могут обеспечить лучшую производительность, но это не всегда гарантировано.

        В любом случае требуется мощное решение для охлаждения, поскольку RTX 3080 требует до 320 Вт мощности и потенциала охлаждения.Вот почему блок питания мощностью 750 Вт рекомендуется как минимум для любой сборки с RTX 3080. еще более крупный случай. Он почти на три сантиметра длиннее и без того огромного 3080, а также выше и шире. Он использует ту же двухтактную конструкцию кулера, что и 3080, но это карта с тремя слотами, поэтому вам потребуется много места, чтобы разместить ее.

        Все три карты эталонной модели RTX 3000 используют новый 12-контактный кабель питания, для подключения которого требуются адаптеры. Центральное расположение разъема немного усложняет прокладку кабелей с картами Nvidia Founders Edition. Сторонние альтернативы используют более традиционные 8-контактные разъемы в более типичных монтажных положениях, что делает их более подходящими для аккуратных систем.

        RTX 3070 против 3080 против 3090, какой из них для вас?

        Выбор видеокарты является личным выбором, при этом необходимо учитывать множество факторов.Если вам нужна чистая мощность, и вы хотите не только играть, но и работать с новым графическим процессором, RTX 3090 — лучший выбор.

        Если вы хотите сэкономить или не хотите играть в 8K, 3080 — более доступное решение, которое не сильно отстает по производительности. Эта карта предлагает настоящую мощность следующего поколения и преимущества уникальной конструкции охлаждения, над которой Nvidia явно потрудилась.

        RTX 3070 тоже отличная карта, но она не на том же уровне. С 8 ГБ ОЗУ и производительностью, подобной 2080 Ti, он больше склоняется к тому, чтобы стать лучшей картой 1440p в мире.Он, безусловно, может обрабатывать 4K, но он больше подходит для интенсивной игры с высоким FPS, где это важнее, чем выставлять все настройки детализации.

        Он также является самым доступным по цене, а благодаря передовой трассировке лучей и производительности DLSS, если это то, что соответствует вашему бюджету, это гораздо более выгодная покупка, чем альтернативы последнего поколения.

        Если вам нужны дополнительные советы по выбору подходящего графического процессора Nvidia RTX серии 3000, позвоните в Chillblast. Один из наших опытных сборщиков систем расскажет вам обо всем, что вам нужно знать, чтобы максимально эффективно использовать следующую модернизацию видеокарты.

        Сравнение видеокарт GeForce GTX 1660 Ti и GeForce RTX 2060

        В этом сравнении GeForce GTX 1660 Ti и GeForce RTX 2060 вы узнаете, какая видеокарта лучше работает в современных играх. Имейте в виду, что сторонние версии могут иметь более эффективное охлаждение и более высокие тактовые частоты. Это повысит производительность карт, хотя и ненамного. В дополнение к грубой мощности вы также должны принять во внимание размеры. Более толстые модели просто не влезут в маленький корпус mini-ITX.Разрешение вашего монитора также влияет на выбор, так как для игрового процесса 4K требуется более мощный графический процессор. И не переплачивайте за видеокарту. Другие части вашей сборки также могут нуждаться в обновлении, сэкономьте немного денег на процессоре или блоке питания. Для одних лучшим выбором будет GeForce GTX 1660 Ti, для других предпочтительнее GeForce RTX 2060. Изучите сравнительные таблицы ниже и сделайте свой выбор.

        Основные характеристики

          GeForce GTX 1660 Ti GeForce RTX 2060
        Потребляемая мощность (TDP) 120 Вт 160 Вт
        Интерфейс PCIe 3.0×16 PCIe 3.0 x16
        Дополнительные разъемы питания 1x 8-контактный 1x 8-контактный
        Тип памяти ГДДР6 ГДДР6
        Максимальный объем оперативной памяти 6 ГБ 6 ГБ
        Разъемы дисплея 1x DVI, 1x HDMI, 1x DisplayPort 1x DVI, 1x HDMI, 2x DisplayPort, 1x USB Type-C
          Проверить цену Проверить цену
        • GeForce RTX 2060 потребляет на 33% больше энергии, чем GeForce GTX 1660 Ti.
        • Обе видеокарты используют интерфейс PCIe 3.0 x16 для подключения к материнской плате.
        • GeForce GTX 1660 Ti и GeForce RTX 2060 имеют максимальный объем оперативной памяти 6 ГБ.
        • Обе карты используются в настольных компьютерах.
        • GeForce GTX 1660 Ti и GeForce RTX 2060 построены на архитектуре Turing.
        • Тактовая частота ядра GeForce GTX 1660 Ti на 180 МГц выше, чем у GeForce RTX 2060.
        • GeForce GTX 1660 Ti и GeForce RTX 2060 производятся по 12-нм техпроцессу.
        • Обе видеокарты имеют одинаковую длину 229 мм.
        • Тактовая частота памяти GeForce RTX 2060 на 2000 МГц выше, чем у GeForce GTX 1660 Ti.

        Игровые тесты

        Assassin’s Creed OdysseyBattlefield 5Call of Duty: WarzoneCounter-Strike: Global OffensiveCyberpunk 2077Dota 2Far Cry 5FortniteForza Horizon 4Grand Theft Auto VMetro ExodusMinecraftPLAYERUNKNOWN’S BATTLEGROUNDSRed Dead Redemption 2The Witcher 3: Wild HuntWorld of Tanks
        высокое / 1080p 60−65 65−70
        ультра / 1080p 40−45 45−50
        QHD / 1440p 30−35 40−45
        4K / 2160p 20−22 24−27
        низкий / 720p 85−90 90−95
        средний / 1080p 70−75 75−80
        Средний игровой FPS у GeForce RTX 2060 в Assassin’s Creed Odyssey на 9% больше, чем у GeForce GTX 1660 Ti.
        высокое / 1080p 95−100 100−110
        ультра / 1080p 85−90 95−100
        QHD / 1440p 65−70 75−80
        4K / 2160p 35−40 40−45
        низкий / 720p 140−150 150−160
        средний / 1080p 100−110 110−120
        Средний игровой FPS у GeForce RTX 2060 в Battlefield 5 на 8% больше, чем у GeForce GTX 1660 Ti.
        низкое / 768p 45−50 45−50
        GeForce GTX 1660 Ti и GeForce RTX 2060 имеют одинаковый средний FPS в Call of Duty: Warzone.
        низкое / 768p 250−260 250−260
        средний / 768p 230−240 230−240
        QHD / 1440p 150−160 150−160
        4K / 2160p 100−110 100−110
        высокий / 768p 220−230 220−230
        GeForce GTX 1660 Ti и GeForce RTX 2060 имеют одинаковый средний FPS в Counter-Strike: Global Offensive.
        низкое / 768p 70−75 70−75
        средний / 1080p 50−55 50−55
        GeForce GTX 1660 Ti и GeForce RTX 2060 имеют одинаковый средний FPS в Cyberpunk 2077.
        низкое / 768p 120−130 120−130
        средний / 768p 110−120 110−120
        ультра / 1080p 110−120
        GeForce GTX 1660 Ti и GeForce RTX 2060 имеют одинаковый средний FPS в Dota 2.
        высокое / 1080p 75−80 85−90
        ультра / 1080p 70−75 80−85
        QHD / 1440p 50−55 60−65
        4K / 2160p 27−30 30−35
        низкий / 720p 110−120 110−120
        средний / 1080p 80−85 90−95
        Средний игровой FPS у GeForce RTX 2060 в Far Cry 5 на 9% больше, чем у GeForce GTX 1660 Ti.
        высокое / 1080p 110−120 130−140
        ультра / 1080p 90−95 100−110
        QHD / 1440p 60−65 70−75
        4K / 2160p 21−24 21−24
        низкий / 720p 240−250 250−260
        средний / 1080p 160−170 170−180
        Средний игровой FPS у GeForce RTX 2060 в Fortnite на 8% больше, чем у GeForce GTX 1660 Ti.
        высокое / 1080p 100−110 110−120
        ультра / 1080p 80−85 90−95
        QHD / 1440p 60−65 70−75
        4K / 2160p 40−45 45−50
        низкий / 720p 150−160 160−170
        средний / 1080p 100−110 120−130
        Средний игровой FPS у GeForce RTX 2060 в Forza Horizon 4 на 10% больше, чем у GeForce GTX 1660 Ti.
        низкое / 768p 170−180 170−180
        средний / 768p 160−170 160−170
        высокое / 1080p 110−120 120−130
        ультра / 1080p 60−65 70−75
        QHD / 1440p 50−55 60−65
        Средний игровой FPS у GeForce RTX 2060 в Grand Theft Auto V на 5% больше, чем у GeForce GTX 1660 Ti.
        высокий / 1080p 45−50 55−60
        ультра / 1080p 40−45 45−50
        QHD / 1440p 30−33 35−40
        4K / 2160p 18−20 21−24
        низкий / 720p 110−120 120−130
        средний / 1080p 65−70 75−80
        Средний игровой FPS у GeForce RTX 2060 в Metro Exodus на 15% больше, чем у GeForce GTX 1660 Ti.
        низкое / 768p 120−130 120−130
        GeForce GTX 1660 Ti и GeForce RTX 2060 имеют одинаковый средний FPS в Minecraft.
        высокое / 1080p 100−110 110−120
        ультра / 1080p 75−80 85−90
        4K / 2160p 18−20 18−20
        низкий / 720p 140−150 140−150
        средний / 1080p 110−120 130−140
        Средний игровой FPS у GeForce RTX 2060 в PLAYERUNKNOWN’S BATTLEGROUNDS на 8% больше, чем у GeForce GTX 1660 Ti.
        высокое / 1080p 45−50 50−55
        ультра / 1080p 27−30 30−35
        QHD / 1440p 24−27 27−30
        4K / 2160p 14−16 18−20
        низкий / 720p 110−120 120−130
        средний / 1080p 70−75 80−85
        Средний игровой FPS у GeForce RTX 2060 в Red Dead Redemption 2 на 12% больше, чем у GeForce GTX 1660 Ti.
        низкий / 768p 220−230 250−260
        средний / 768p 150−160 180−190
        высокое / 1080p 90−95 100−110
        ультра / 1080p 50−55 60−65
        4K / 2160p 30−35 40−45
        Средний игровой FPS у GeForce RTX 2060 в игре Ведьмак 3: Дикая Охота на 17% больше, чем у GeForce GTX 1660 Ti.
        низкий / 768p 150−160 200−210
        ультра / 1080p 75−80 95−100
        Средний игровой FPS у GeForce RTX 2060 в World of Tanks на 30% больше, чем у GeForce GTX 1660 Ti.
        Видео сравнительного теста

        GeForce GTX 1660 Ti и GeForce RTX 2060

        Полные характеристики

          GeForce GTX 1660 Ti GeForce RTX 2060
        Архитектура Тьюринг Тьюринг
        Кодовое название Тьюринг TU116 Тьюринг TU106
        Тип Рабочий стол Рабочий стол
        Дата выпуска 22 февраля 2019 г. 6 января 2019 г.
        Трубопроводы 1536 1920
        Тактовая частота ядра 1500 МГц 1320 МГц
        Повышенная частота 1770 МГц 1620 МГц
        Количество транзисторов 6 600 миллионов 10 800 миллионов
        Технология производства 12 нм 12 нм
        Скорость заполнения текстуры 169.9 201,6
        Длина 229 мм 229 мм
        Разрядность шины памяти 192 Бит 192 Бит
        Тактовая частота памяти 12000 МГц 14000 МГц
        Пропускная способность памяти 288,0 ГБ/с 336,0 ГБ/с
        Общая память
        Поддержка G-SYNC +
        VR готов +
        DirectX 12 (12_1) 12
        Модель шейдера 6.5 6,5
        OpenGL 4,6 4,6
        OpenCL 1,2 1,2
        Вулкан 1.2.131 1.2.131
        CUDA 7,5 7,5
          Проверить цену Проверить цену

        Аппаратное ускорение видео — ArchWiki

        Аппаратное ускорение видео позволяет видеокарте декодировать/кодировать видео, тем самым разгружая ЦП и экономя энергию.

        В Linux это можно сделать несколькими способами:

        • Video Acceleration API (VA-API) — это спецификация и библиотека с открытым исходным кодом для аппаратного ускорения кодирования и декодирования видео, разработанная Intel.
        • API декодирования и представления видео для Unix (VDPAU) — это библиотека с открытым исходным кодом и API для переноса части процесса декодирования видео и постобработки видео на аппаратное обеспечение графического процессора, разработанное NVIDIA.
        • NVDECODE/NVENCODE — собственные API-интерфейсы NVIDIA для аппаратного ускорения видео, используемые графическими процессорами NVIDIA, начиная с Fermi.

        Для видеокарт до 2007 года см. XvMC. Подробный обзор поддержки драйверов и приложений см. в таблицах #Comparison.

        Установка

        Интел

        Графические драйверы Intel с открытым исходным кодом поддерживают VA-API:

        См. также поддерживаемое оборудование и функции VAAPI.

        NVIDIA

        Драйвер с открытым исходным кодом

        Nouveau поддерживает как VA-API, так и VDPAU:

        Собственный драйвер NVIDIA поддерживает через nvidia-utils:

        АТИ/АМД

        Драйверы

        ATI и AMDGPU с открытым исходным кодом поддерживают как VA-API, так и VDPAU:

        • VA-API на Radeon HD 2000 и более новых графических процессорах поддерживается драйвером libva-mesa.
        • VDPAU на Radeon R300 и более новых графических процессорах поддерживается mesa-vdpau.

        Проприетарный драйвер AMDGPU PRO создан на основе драйвера AMDGPU и поддерживает как VA-API, так и VDPAU.

        Слои перевода

        • libva-vdpau-driver — Серверная часть на основе VDPAU для VA-API.
        https://cgit.freedesktop.org/vaapi/vdpau-драйвер || libva-vdpau-водитель, libva-vdpau-водитель-хром Aur , libva-vdpau-водитель-vp9-git AUR
          • — Vdpau-VA-GL — VDPAU Бэкэнд VAAPI.Только H.264.
          https://github.com/i-rinat/libvdpau-va-gl || libvdpau-va-gl
          • nvidia-vaapi-driver — серверная часть на основе CUDA NVDECODE для VA-API.
          https://github.com/elFarto/nvidia-vaapi-driver/ || libva-nvidia-driver AUR

          Проверка

          Ваша система может работать без дополнительной настройки без какой-либо настройки. Поэтому рекомендуется начать с этого раздела, чтобы убедиться, что это так.

          Совет:
          • mpv с поддержкой командной строки отлично подходит для тестирования аппаратного ускорения. Посмотрите журнал mpv --hwdec=auto video_filename и см. hwdec для более подробной информации.
          • Для графического процессора Intel используйте инструменты intel-gpu-tools и запустите intel_gpu_top от имени пользователя root, чтобы отслеживать активность графического процессора, например, во время воспроизведения видео. Полоса видео выше 0 % указывает на использование видеодекодера/кодировщика графического процессора.
          • Для графического процессора AMD используйте radeontop для мониторинга активности графического процессора.В отличие от intel-gpu-tools, в настоящее время нет возможности увидеть использование декодирования/кодирования на radeontop [2].
          • Для любого графического процессора можно сравнить загрузку ЦП с помощью такого инструмента, как htop. Особенно для видео с более высоким разрешением (4k+) использование ЦП при включенном VA-API и работе должно быть значительно ниже на ноутбуках и других устройствах с относительно низким энергопотреблением.

          Проверка VA-API

          Проверьте настройки VA-API, запустив vainfo , который предоставляется libva-utils:

           $ тщетная информация 
           информация о libva: VA-API версии 0.39,4
          информация о libva: va_getDriverName() возвращает 0
          Информация о libva: попытка открыть /usr/lib/dri/i965_drv_video.so
          Информация о libva: найдена функция инициализации __vaDriverInit_0_39
          Информация о libva: va_openDriver() возвращает 0
          vainfo: Версия VA-API: 0.39 (libva 1.7.3)
          vainfo: Версия драйвера: Драйвер Intel i965 для Intel(R) Skylake - 1.7.3
          vainfo: поддерживаемый профиль и точки входа
                VAProfileMPEG2Simple  : VAEntrypointVLD
                VAProfileMPEG2Simple  : VAEntrypointEncSlice
                VAProfileMPEG2Main : VAEntrypointVLD
                VAProfileMPEG2Main : VAEntrypointEncSlice
                VAProfileh364ConstrainedBaseline: VAEntrypointVLD
                VAProfileh364ConstrainedBaseline: VAEntrypointEncSlice
                VAProfileh364ConstrainedBaseline: VAEntrypointEncSliceLP
                VAProfileh364Main : VAEntrypointVLD
                VAProfileh364Main : VAEntrypointEncSlice
                VAProfileh364Main : VAEntrypointEncSliceLP
                VAProfileh364High : VAEntrypointVLD
                VAProfileh364High : VAEntrypointEncSlice
                VAProfileh364High : VAEntrypointEncSliceLP
                VAProfileh364MultiviewHigh  : VAEntrypointVLD
                VAProfileh364MultiviewHigh  : VAEntrypointEncSlice
                VAProfileh364StereoHigh : VAEntrypointVLD
                VAProfileh364StereoHigh  : VAEntrypointEncSlice
                VAProfileVC1Simple  : VAEntrypointVLD
                VAProfileVC1Main  : VAEntrypointVLD
                VAProfileVC1Advanced  : VAEntrypointVLD
                VAProfileNone  : VAEntrypointVideoProc
                VAProfileJPEGBaseline  : VAEntrypointVLD
                VAProfileJPEGBaseline  : VAEntrypointEncPicture
                VAProfileVP8Version0_3 : VAEntrypointVLD
                VAProfileVP8Version0_3 : VAEntrypointEncSlice
                VAProfileHEVCMain  : VAEntrypointVLD
                VAProfileHEVCMain  : VAEntrypointEncSlice
           

          VAEntrypointVLD означает, что ваша карта способна декодировать этот формат, VAEntrypointEncSlice означает, что вы можете кодировать в этот формат.

          В этом примере используется драйвер i965 , как видно из этой строки:

           vainfo: Версия драйвера: Драйвер Intel  i965  для Intel(R) Skylake — 1.7.3
           

          Если при запуске vainfo отображается следующая ошибка:

           информация о libva: va_openDriver() возвращает -1
          Ошибка vaInitialize с кодом ошибки -1 (неизвестная ошибка libva), выход
           

          Вам необходимо настроить правильный драйвер, см. #Настройка VA-API.

          Проверка VDPAU

          Установите vdpauinfo, чтобы проверить правильность загрузки драйвера VDPAU и получить полный отчет о конфигурации:

           $ вдпауинфо 
           дисплей: :0 экран: 0
          Версия API: 1
          Информационная строка: Общая библиотека драйверов G3DVL VDPAU версии 1.0
          
          Видео поверхность:
          
          имя ширина высота типы
          -------------------------------------------
          420 16384 16384 НВ12 ЙВ12
          422 16384 16384 УЙВЫ ЮЫВ
          444 16384 16384 Y8U8V8A8 V8U8Y8A8
          
          Возможности декодера:
          
          уровень имени macbs ширина высота
          -------------------------------------------------- --
          MPEG1 --- не поддерживается ---
          MPEG2_SIMPLE 3 9216 2048 1152
          MPEG2_MAIN 3 9216 2048 1152
          h364_BASELINE 41 9216 2048 1152
          h364_MAIN 41 9216 2048 1152
          h364_HIGH 41 9216 2048 1152
          VC1_SIMPLE 1 9216 2048 1152
          VC1_MAIN 2 9216 2048 1152
          VC1_РАСШИРЕННЫЙ 4 9216 2048 1152
          ...
           

          Конфигурация

          Хотя видеодрайвер должен автоматически включать поддержку аппаратного ускорения видео как для VA-API, так и для VDPAU, может потребоваться настроить VA-API/VDPAU вручную. Переходите к этому разделу, только если вы прошли #Verification.

          Имена драйверов по умолчанию, используемые при отсутствии другой конфигурации, угадываются системой. Однако они часто взломаны вместе и могут не работать. Вы можете увидеть предполагаемые значения, запустив:

           $ grep -iE 'vdpau | Драйвер драйвера /var/log/Xorg.0.лог 
           (II) RADEON(0): [DRI2] Драйвер DRI: radeonsi
          (II) RADEON(0): драйвер [DRI2] VDPAU: radeonsi
           

          В этом случае radeonsi используется по умолчанию как для VA-API, так и для VDPAU.

          Примечание: Если вы используете GDM, запустите journalctl -b --grep='vdpau | dri driver' вместо root.

          Однако это не соответствует конфигурации . Приведенные выше значения не изменятся, даже если вы их переопределите.

          Настройка VA-API

          Вы можете переопределить драйвер для VA-API, используя переменную среды LIBVA_DRIVER_NAME :

          Примечание:
          • Установленные драйверы можно найти в /usr/lib/dri/ .Они используются как /usr/lib/dri/ ${LIBVA_DRIVER_NAME} _drv_video.so .
          • Некоторые драйверы устанавливаются несколько раз под разными именами из соображений совместимости. Вы можете узнать, какой именно, запустив sha1sum /usr/lib/dri/* | сорт .
          • LIBVA_DRIVERS_PATH можно использовать для переопределения расположения драйверов VA-API.
          • Начиная с версии 12.0.1 libva-mesa-driver предоставляет radeonsi вместо галлия .

          Настройка VDPAU

          Драйвер для VDPAU можно переопределить, используя переменную среды VDPAU_DRIVER .

          Правильное имя драйвера зависит от вашей настройки:

          • Для графики Intel необходимо установить значение va_gl .
          • Для драйвера AMD с открытым исходным кодом установите правильную версию драйвера в зависимости от вашего графического процессора, см. #Verification.
          • Для драйвера Nouveau с открытым исходным кодом установите значение nouveau .
          • Для проприетарной версии NVIDIA установите значение nvidia .
          Примечание:
          • Установленные драйверы можно найти в /usr/lib/vdpau/ .Они используются как /usr/lib/vdpau/libvdpau_ ${VDPAU_DRIVER} .so .
          • Некоторые драйверы устанавливаются несколько раз под разными именами из соображений совместимости. Вы можете увидеть это, запустив sha1sum /usr/lib/vdpau/* .
          • Для гибридных установок (как NVIDIA, так и AMD) может потребоваться установить переменную среды DRI_PRIME . Для получения дополнительной информации см. ПРАЙМ.

          Настройка приложений

          Мультимедийные рамки:

          Видеоплееры:

          Веб-браузеры:

          Поиск и устранение неисправностей

          Не удалось открыть серверную часть VDPAU

          Вам необходимо установить переменную VDPAU_DRIVER , чтобы она указывала на правильный драйвер.См. #Настройка VDPAU.

          Ошибка инициализации VAAPI

          Обнаружена ошибка типа libva: /usr/lib/dri/i965_drv_video.so ошибка инициализации . Это может произойти из-за неправильного обнаружения Wayland. Одним из решений является сброс $DISPLAY , чтобы mpv, MPlayer, VLC и т. д. не предполагали, что это X11. Еще одно решение для mpv — добавить параметр --gpu-context=wayland .

          Повреждение или искажение декодирования видео с помощью драйвера AMDGPU

          При повреждении или искажении декодирования видео с драйвером AMDGPU установите allow_rgb10_configs=false в качестве переменной среды или driconf .[3]

          Сравнительные таблицы

          Драйверы VA-API

          Кодек libva-intel-драйвер [4] Intel-медиа-драйвер [5] libva-mesa-драйвер [6] [7] libva-vdpau-driver
          (адаптер VDPAU)
          libva-nvidia-driver AUR
          (адаптер NVDECODE)
          Расшифровка
          MPEG-2 GMA 4500 и новее Бродвелл и новее Radeon HD 6000 и новее
          GeForce 8 и новее 1
          См. драйверы #VDPAU См. только драйвер #NVIDIA
          Х.263/MPEG-4 Визуальный 4 Нет Нет Radeon HD 6000 и новее 6
          VC-1 Песчаный мост и новее Бродвелл и новее Radeon HD 2000 и новее
          GeForce 9300 и новее 1
          См. только драйвер #NVIDIA
          H.264/MPEG-4 AVC GMA 4500 2 , Ironlake и новее Radeon HD 2000 и новее
          GeForce 8 и новее 1
          H.265/HEVC 8 бит Cherryview/Braswell и новее Скайлейк и новее Radeon R9 Fury и новее
          H.265/HEVC 10 бит Брокстон и новее Broxton/Apollo Lake и новее Radeon 400 и новее 6
          VP8 Бродвелл и новее Бродвелл и новее Нет Нет См. только драйвер #NVIDIA
          VP9 8 бит Broxton и новее
          Hybrid: обновление Haswell до Skylake 3
          Broxton/Apollo Lake и новее Вороний хребет и новее См. драйверы #VDPAU 5
          VP9 10 бит Озеро Каби и новее Озеро Каби и новее Нет 6
          AV1 8-бит и 10-бит Нет Tiger Lake и новее Radeon RX 6000 и новее Экспериментальный 7
          Кодирование
          MPEG-2 Айви Бридж и новее Broadwell и новее
          , кроме Broxton/Apollo Lake
          Нет 6
          Н.264/MPEG-4 AVC Песчаный мост и новее Бродвелл и новее Radeon HD 7000 и новее
          H.265/HEVC 8 бит Скайлейк и новее Скайлейк и новее Radeon 400 и новее
          H.265/HEVC 10 бит Озеро Каби и новее Озеро Каби и новее Вороний хребет и новее
          ВП8 Cherryview/Braswell и новее
          Гибрид: от Haswell до Skylake 3
          Нет
          VP9 8 бит Озеро Каби и новее Icelake и новее
          VP9 10 бит Нет
          • 1 До GeForce GTX 750.
          • 2 Вместо этого поддерживается libva-intel-driver-g45-h364 AUR .
          • 3 Гибридный кодер VP8 и декодер VP9, ​​поддерживаемые драйвером гибридного кодека Intel AUR .
          • 4 MPEG-4 Part 2 по умолчанию отключен из-за ограничений VAAPI. Установите переменную среды VAAPI_MPEG4_ENABLED=true , чтобы попытаться использовать ее в любом случае.
          • 5 Экспериментальная поддержка VP9 вместо этого предоставляется libva-vdpau-driver-vp9-git AUR .
          • 6 Поддержка кодеков адаптера NVIDIA CUDA находится в активной разработке и может быть изменена [8].
          • 7 Работа не гарантируется. Требуется FireFox 98+ [9].

          Драйверы ВДПАУ

          Кодек Цвет
          Глубина
          меса-вдпау [10] [11] утилиты nvidia libvdpau-va-gl
          (адаптер VA-API)
          Расшифровка
          MPEG-2 8 бит Radeon R300 и новее
          GeForce 8 и новее 1
          GeForce 8 и новее Нет
          Х.263/MPEG-4 визуальный 8 бит Radeon HD 6000 и новее
          GeForce 200 и новее 1
          GeForce 200 и новее
          ВК-1 8 бит Radeon HD 2000 и новее
          GeForce 9300 и новее 1
          GeForce 8 и новее 2
          H.264/MPEG-4 AVC 8 бит Radeon HD 2000 и новее
          GeForce 8 и новее 1
          GeForce 8 и новее См. драйверы #VA-API
          Х.265/HEVC 8 бит Radeon R9 Fury и новее GeForce 900 и новее 3 Нет
          10 бит Radeon 400 и новее 4
          VP9 8 бит Нет GeForce 900 и новее 3
          10 бит Нет 4
          AV1 8 бит Нет GeForce 30 и новее 5
          10 бит Нет Нет 4
          • 1 До GeForce GTX 750.
          • 2 Кроме GeForce 8800 Ultra, 8800 GTX, 8800 GTS (320/640 МБ).
          • 3 Кроме GeForce GTX 970 и GTX 980.
          • 4 Реализация NVIDIA ограничена 8-битными потоками [12][13].
          • 5 Начиная с версии драйвера 510.[14]

          Только драйвер NVIDIA

          Кодек утилиты нвидиа [15]
          NVDECODE НВЕНКОД
          MPEG-2 Fermi и новее 1 Нет
          ВК-1
          Х.264/MPEG-4 AVC Kepler и новее 2
          H.265/HEVC 8 бит Maxwell (GM206) и новее Maxwell (2-го поколения) и новее
          H.265/HEVC 10 бит Паскаль и новее
          ВП8 Maxwell (2-го поколения) и новее Нет
          VP9 8 бит Maxwell (GM206) и новее
          VP9 10 бит Паскаль и новее
          AV1 8 бит и 10 бит Ampere и новее 3
          • 1 Кроме GM108 (не поддерживается)
          • 2 Кроме GM108 и GP108 (не поддерживается)
          • 3 Кроме A100 (не поддерживается)

          Поддержка приложений

          • 1 GStreamer использует белый список драйверов VA-API.Чтобы игнорировать белый список, см. GStreamer#Игнорировать белый список драйверов.
          • 2 Поддержка VA-API предоставляется mplayer-vaapi AUR вместо этого.
          • 3 VDPAU поддерживается только подключаемым модулем NPAPI. Доступен экспериментальный адаптер плагина PPAPI для браузера NPAPI, обеспечивающий частичное ускорение VA-API и VDPAU.
          • 4 Только Xorg. Wayland не поддерживается. XWayland демонстрирует изменчивость FS # 67035.

          Аппаратное ускорение | АрКаос Про

          Получите максимальную отдачу от вашей видеокарты

          Программное обеспечение

          ArKaos поставляется с совершенно новым видеодвижком, который использует возможности новейших графических карт с аппаратным ускорением (тех, которые поддерживают Pixel Shaders II).Все приложения для обработки видео, микширования и эффектов теперь вычисляются в графическом процессоре, что позволяет испытать беспрецедентную визуальную плавность и качество изображения.

          Все дело в шейдерах

          Благодаря ускоренной мультимедийной технологии Pixel Shaders вся обработка видео, микширование и эффекты теперь вычисляются графической картой с использованием специальных алгоритмов, разработанных для обработки изображений. Это позволяет позиционировать и изменять размер видео, применять к ним расширенные 2D- и 3D-эффекты и смешивать несколько слоев вместе с люминесцентным/хроматическим ключом, а также множеством различных режимов копирования.. Все это в режиме реального времени и с очень высоким качеством изображения, позволяющим проецировать на большие экраны высшего качества!

          Преимущества

          Вся обработка изображений выполняется с помощью графического процессора*: у ЦП* есть больше времени для другой тяжелой обработки, такой как декомпрессия видео; это приводит к гораздо лучшей частоте кадров и визуальной плавности.

          Вся обработка видео выполняется в полном разрешении и использует аппаратную фильтрацию текстур, которая устраняет пиксельные артефакты даже в видео с низким разрешением; качество изображения значительно улучшается.

          *ГП — это процессор вашей графической карты, в отличие от ЦП — Блок процессора компьютера — который является основным процессором вашего компьютера.

          Аппаратное ускорение, технический разговор

          При использовании аппаратной конвейерной обработки графического процессора, а не стандартной обработки ЦП, подход к обработке изображений становится радикально другим: каждое изображение или видео эквивалентно текстуре в видеопамяти; одновременное обновление нескольких видео потребляет большую часть полосы пропускания данных шины AGP/PCI-X.Движок ArKaos сводит эту полосу пропускания к минимуму для достижения максимально возможной частоты кадров.

          Каждая обработка изображения выполняется с использованием текстуры в качестве исходных данных: ее можно легко смешивать с другими текстурами, а затем масштабировать, растягивать и деформировать с помощью геометрических сеток. Таким образом, попиксельная/вершинная обработка полностью меняет способ работы с изображением.

          Пиксельные шейдеры

          обеспечивают расширенную обработку изображений за минимальное время разработки благодаря попиксельной обработке, тогда как вершинные шейдеры позволяют использовать расширенные световые эффекты и деформацию объемов благодаря повершинной обработке.

          Использование аппаратной фильтрации текстур в GrandVJ позволяет получать изображения необычайно высокого качества. Более того, все обработки выполняются в полном разрешении, благодаря чему пикселизация исчезает даже с видео с низким разрешением.

          Дополнительная информация

          Если вам нужна дополнительная информация об аппаратном ускорении в программном обеспечении ArKaos, ознакомьтесь с документацией в формате PDF, которая находится в папке установки программного обеспечения.

          .

Ваш комментарий будет первым

Добавить комментарий

Ваш адрес email не будет опубликован.