Нажмите "Enter", чтобы перейти к содержанию

Тест видеокарты nvidia: ТОП-7 Лучших тестов для видеокарт

Содержание

Тесты видеокарт и игр, обзоры , новости мира игр и IT технологий.

Автор svl, . Опубликовано в RPG/Ролевые

Ролевая игра Mount & Blade II: Bannerlord представляет собой долгожданное продолжение знаменитой ролевой игры и симулятора средневековых войн Mount & Blade: Warband. Действие этой игры происходит за 200 лет до начала первой части.

Автор cybertron, . Опубликовано в Action / FPS / TPS

В сегодняшнем графическом обзоре мы рассмотрим графические настройки и их влияние на качество картинки в OUTRIDERS DEMO. Выход игры назначен на 1 апреля 2021 года.

Автор cybertron, . Опубликовано в Action / FPS / TPS

В сегодняшнем графическом обзоре мы рассмотрим графические настройки и их влияние на качество картинки в Werewolf: The Apocalypse – Earthblood, основаной на настольной ролевой игре Werewolf: The Apocalypse от White Wolf Publishing.

Автор svl, . Опубликовано в RPG/Ролевые

Владычица Озера, правительница загадочного острова Авалон, вернула вас к жизни, чтобы покончить с истинным кошмаром. Она хочет, чтобы вы отправились в рыцарский поход. Убейте короля Артура или то, чем тот стал, когда она забрала его умирающую бренную оболочку на Авалон.

Автор svl, . Опубликовано в Action / FPS / TPS

The Medium — приключенческий хоррор от третьего лица, действие которого разворачивается в ужасающем заброшенном отеле скрывающим множество тайн прошлого. Играть предстоит за женщину-медиума. Она может не только связываться с миром мертвых.

Игровое тестирование видеокарт. Рейтинг на 2021 год

Отобразить архивные модели: NVIDIA GeForce RTX 3080 Max-Q (GN20-E7 GA104), NVIDIA GeForce RTX 3070 Max-Q (GN20-E5 GA104), NVIDIA GeForce RTX 3060 Max-Q (GN20-E3 GA106), AMD Radeon RX Vega Mobile (Vega Mobile), AMD Radeon RX 480 (Laptop) (Polaris), AMD Radeon RX 490M (Polaris), AMD Radeon R9 M295X (Tonga), AMD Radeon R9 M390X (Amethyst (XT) / Tonga), NVIDIA GeForce GTX 780M (N14E-GTX), NVIDIA GeForce GTX 680MX, AMD Radeon R9 M290X (Neptune), AMD Radeon HD 8970M (Neptune), NVIDIA GeForce GTX 680M (N13E-GTX), NVIDIA GeForce GTX 775M (N13E-GTX-A2), AMD Radeon HD 7970M (Wimbledon XT), NVIDIA GeForce GTX 770M (N14E-GS), NVIDIA GeForce GTX 675MX (N13E-GSR), AMD Radeon R9 M280X (Saturn XT), AMD Radeon HD 7950M (Wimbledon Pro), NVIDIA GeForce GTX 765M (N14-GE), NVIDIA GeForce GTX 675M (N13E-GS1), NVIDIA GeForce GTX 580M (N12E-GTX2), AMD Radeon HD 6990M (Blackcomb XTX), AMD Radeon R9 M385, AMD Radeon R9 M380 (Strato Pro GDDR5), NVIDIA GeForce GT 650M SLI (N13E-GE), NVIDIA GeForce GTX 485M (N12E-GTX-A1), NVIDIA GeForce GTX 670MX (N13E-GR), NVIDIA GeForce GTX 760M (N14E-GL), AMD Radeon R9 M275, NVIDIA GeForce GTX 670M (N13E-GS1-LP), AMD Radeon HD 6970M (Blackcomb XT), AMD Radeon R9 M270, AMD Radeon HD 8870M, AMD Radeon HD 7870M (Heathrow XT), NVIDIA GeForce GTX 570M (N12E-GT), AMD Radeon HD 6950M (Blackcomb Pro), NVIDIA GeForce GTX 660M (N13E-GE), AMD Radeon HD 8850M, AMD Radeon R9 M365X, AMD Radeon HD 7850M (Heathrow Pro), AMD Radeon HD 8790M (Mars XTX), NVIDIA GeForce GTX 470M (N11E-GT), NVIDIA GeForce GTX 480M (N11E-GTX-A3), AMD Radeon R7 M380, AMD Radeon R7 M370, NVIDIA GeForce GT 650M (N13E-GE), AMD Radeon HD 7770M (Chelsea XT), NVIDIA GeForce GTX 560M (N12E-GS), ATI Mobility Radeon HD 5870 (Broadway-XT), AMD Radeon HD 6870M (Granville-PRO), AMD Radeon HD 8830M, AMD Radeon HD 8770M, AMD Radeon R7 M260X (Mars), NVIDIA GeForce GTX 460M (N11E-GS), NVIDIA GeForce GT 645M (N13P-GS), AMD Radeon HD 7750M (Lombok XL), AMD Radeon HD 8750M (Mars Pro), AMD Radeon R7 M270 (Opal XT / Mars), NVIDIA GeForce GTX 285M (N10E-GTX1), ATI Mobility Radeon HD 4870 (M98-XT), AMD Radeon HD 7730M (Lombok GL), NVIDIA GeForce GTX 280M (N10E-GTX), AMD Radeon HD 8690M, AMD Radeon R7 M260 (Opal Pro / Mars), ATI Mobility Radeon HD 4860 (M97-XT), ATI Mobility Radeon HD 4850 (M98), NVIDIA GeForce GTX 260M (N10E-GT), NVIDIA GeForce 9800M GTX (NB9E-GTX), AMD Radeon HD 7690M XT (Thames XTX), NVIDIA GeForce GT 640M LE (N13P-LP), AMD Radeon HD 8650M, AMD Radeon HD 8730M, AMD Radeon HD 6770M (Whistler-XT), NVIDIA GeForce GT 635M (N13E-GE2), NVIDIA GeForce GT 555M (N12E-GE-B), ATI Mobility Radeon HD 5850 (Broadway-PRO), AMD Radeon HD 6850M (Granville Pro/LP), NVIDIA GeForce 9800M GT (NB9E-GT2), NVIDIA GeForce 8800M GTX (NB8E-GTX), NVIDIA GeForce GT 445M (N11E-GE), NVIDIA GeForce GTS 360M (N11E-GS1), AMD Radeon HD 7690M (Thames XT / XTX), AMD Radeon HD 8670M, AMD Radeon HD 6750M (Whistler-PRO), NVIDIA GeForce GT 550M (N12P-GT), AMD Radeon HD 8590M, NVIDIA GeForce GTS 260M (N10E-GS), NVIDIA GeForce GTS 160M (N10E-GS1), NVIDIA GeForce 9800M GTS (NB9E-GT), AMD Radeon HD 6830M (Granville-LP), ATI Mobility Radeon HD 5830 (Broadway), AMD Radeon HD 6730M (Whistler-XT), NVIDIA GeForce 9800M GS (NB9E-GS1), ATI Mobility Radeon HD 4830 (M97), ATI Mobility Radeon HD 5770 (Madison-XT), AMD Radeon HD 6570M (Capilano), AMD Radeon HD 8650G (Richland), AMD Radeon HD 7670M (Thames XT), NVIDIA GeForce GT 630M (N13P-GL/GL2), NVIDIA GeForce GTS 150M (N10E-GE1), AMD Radeon R5 M335 (Exo XT DDR3), NVIDIA GeForce 8800M GTS (NB8E-GT), AMD Radeon R5 M240 (Jet XT / Sun), AMD Radeon R5 M230 (Jet / Sun), ATI Mobility Radeon HD 5750 (Madison-XT), AMD Radeon HD 8570M, AMD Radeon HD 8550M, NVIDIA GeForce GT 540M (N12P-GS), AMD Radeon HD 6650M (Whistler-PRO), ATI Mobility Radeon HD 5730 (Madison), AMD Radeon HD 7660G (Trinity), NVIDIA GeForce GT 435M (N11P-GT), AMD Radeon HD 6550M (Capilano-PRO), AMD Radeon HD 7590M (Thames XT), NVIDIA GeForce GTS 350M (n11e-ge1), NVIDIA GeForce GTS 250M (N10E-GE), AMD Radeon HD 6630M (Whistler-LP), AMD Radeon HD 7650M (Thames-LP/Pro), AMD Radeon HD 7570M (Thames-Pro / XT), AMD Radeon HD 7630M (Thames-LP), ATI Mobility Radeon HD 5650 (Madison Pro), AMD Radeon HD 8510G (Trinity), AMD Radeon HD 6530M (Capilano-LP), AMD Radeon HD 8550G (Richland), NVIDIA GeForce GT 625M (N13M-GS), NVIDIA GeForce GT 620M (N13P-GLP / N13M-GS), NVIDIA GeForce GT 525M (N12P-GE), AMD Radeon HD 7610M (Thames-LE), AMD Radeon HD 7620G (Trinity), AMD Radeon HD 7640G (Trinity), AMD Radeon HD 8610G (Richland), ATI Mobility Radeon HD 565v, AMD Radeon HD 7550M (Thames-LP / Pro), ATI Mobility Radeon HD 4670 (M96-XT), NVIDIA GeForce GT 425M (N11P-GS), NVIDIA GeForce 9700M GTS (NB9E-GS), NVIDIA GeForce GT 335M (N11P-GS1), AMD Radeon HD 7600G (Trinity), ATI Mobility Radeon HD 3870 (M88-XT), ATI Mobility Radeon HD 5165, ATI Mobility Radeon HD 560v, ATI Mobility Radeon HD 4650 (M96), NVIDIA GeForce GT 420M (N11P-GE), AMD Radeon HD 7530M (Thames-LP), ATI Mobility Radeon HD 3850 (M88), NVIDIA GeForce GT 330M (N11P-GE1), NVIDIA GeForce GT 240M (N10P-GS), AMD Radeon HD 7490M (Seymour XTX), AMD Radeon HD 7510M (Thames-LE), NVIDIA GeForce Go 7950 GTX (G71M), NVIDIA GeForce 9700M GT (NB9E-GE), NVIDIA GeForce GT 230M (N10P-GE), ATI Mobility Radeon HD 550v, AMD Radeon HD 6620G (Llano), Intel HD Graphics (Skylake) (Skylake GT1), AMD Radeon HD 7500G (Trinity), AMD Radeon HD 8450G (Richland), AMD Radeon HD 7470M (Seymour XT / XTX), AMD Radeon HD 6490M (Seymour XT), AMD Radeon HD 8410G (Trinity), AMD Radeon HD 8400 (Kabini), NVIDIA GeForce GT 520MX (N12P-GVR), AMD Radeon HD 7520G (Trinity), NVIDIA GeForce GT 325M (N11P-GV1), NVIDIA GeForce GT 130M (N10P-GE1), NVIDIA GeForce Go 7900 GTX (G71M), AMD Radeon HD 8350G (Richland), AMD Radeon HD 8330 (Kabini), NVIDIA GeForce 9650M GS (NB9P-GS1), NVIDIA GeForce 9650M GT (NB9P-GT), NVIDIA GeForce 8700M GT (NB8E-SE), NVIDIA GeForce Go 7800 GTX (G70M), NVIDIA GeForce Go 7900 GS (G71M), NVIDIA Quadro NVS 320M (G84M), NVIDIA GeForce 9600M GT (NB9P-GS), NVIDIA GeForce GT 220M (G96M), NVIDIA GeForce GT 120M (N10P-GV1), AMD Radeon HD 7450M (Seymour-PRO), NVIDIA GeForce 610M (N13M-GE), NVIDIA GeForce 705M, AMD Radeon HD 6470M (Seymour XT), NVIDIA GeForce GT 520M (N12P-GP/LV), AMD Radeon HD 7420G (Trinity), ATI Mobility Radeon HD 3670 (M86XT), AMD Radeon HD 6520G (Llano), AMD Radeon HD 8310G (Trinity), NVIDIA GeForce 320M (MCP89), NVIDIA GeForce GT 320M, ATI Mobility Radeon HD 2600 XT (M76-XT), ATI Mobility Radeon X1900 (M59), ATI Mobility Radeon X1800XT (M58, R520), ATI Mobility Radeon X1800 (M58), NVIDIA GeForce Go 6800 Ultra (NV41M), NVIDIA GeForce Go 7800 (G70M), NVIDIA GeForce 9600M GS (NB9P-GE), NVIDIA GeForce 9500M GS (NB9P-GE1), AMD Radeon HD 7400G (Trinity), AMD Radeon HD 6480G (Llano), ATI Mobility Radeon HD 2700 (M76-XT), NVIDIA GeForce GT 415M (N11P-GV), NVIDIA GeForce 410M (N12M-GS), AMD Radeon HD 7370M (Robson XT), AMD Radeon HD 6370M (Robson XT), AMD Radeon HD 8280 (Temash), ATI Mobility Radeon HD 5470 (Park XT), AMD Radeon HD 6450M (Seymour-PRO), AMD Radeon HD 7430M (Seymour-PRO), ATI Mobility Radeon HD 3650 (M86), ATI Mobility Radeon HD 5145, ATI Mobility Radeon HD 545v, AMD Radeon HD 8240 (Temash), AMD Radeon HD 8250 (Temash), ATI Mobility Radeon HD 4570 (M92-XT), ATI Mobility Radeon HD 5450 (Park Pro), NVIDIA GeForce 8600M GT (G84M), ATI Mobility Radeon HD 2600 (M76), Intel HD Graphics 3000 (Sandy Bridge), NVIDIA GeForce 310M (N11M-GE1), NVIDIA GeForce G210M (N10M-GS), NVIDIA GeForce 405M, NVIDIA GeForce 315M (N11M-GE), NVIDIA GeForce Go 7600 GT (G73M), NVIDIA GeForce 9500M G (NB9P), NVIDIA GeForce 8600M GS (G84M), NVIDIA GeForce Go 7700 (G73M-B1), NVIDIA GeForce Go 6800 (NV42M), ATI Mobility Radeon X800XT (M28Pro), AMD Radeon HD 6430M (Seymour-LP), AMD Radeon HD 6380G (Llano), ATI Mobility Radeon HD 5430 (Park LP), AMD Radeon HD 8210 (Temash, Kabini), ATI Mobility Radeon HD 540v, ATI Mobility Radeon HD 4550 (M92), Intel HD Graphics 2500 (Ivy Bridge GT1), AMD Radeon HD 7350M (Robson Pro), AMD Radeon HD 6350M (Robson Pro), ATI Mobility Radeon HD 4530 (M92), ATI Mobility Radeon HD 4350 (M92), ATI Mobility Radeon HD 530v (M92), NVIDIA GeForce 305M (n11m-lp1), ATI Mobility Radeon X1700 (M66-P), ATI Mobility Radeon X2500 (M66), NVIDIA GeForce Go 7600 (G73M), ATI Mobility Radeon X800 (M28), ATI Mobility Radeon X1600 (M56), ATI Mobility Radeon 9800 (M18), NVIDIA GeForce Go 6600 (NV43M), ATI Mobility Radeon X1450 (M54), ATI Mobility Radeon X700 (M26), NVIDIA GeForce G 110M (N10M-GS1), AMD Radeon HD 6330M (Robson LP), ATI Mobility Radeon HD 4330 (M92-SE), NVIDIA GeForce 8400M GT (G86M), Intel HD Graphics 2000 (Sandy Bridge), NVIDIA GeForce G 107M, NVIDIA GeForce G 105M (N10M-GE1), NVIDIA GeForce G 103M (G98), NVIDIA GeForce 9500M GE (MCP79Mx + NB9M), NVIDIA GeForce G 102M (MCP75), NVIDIA GeForce G 205M (MCP79MX), NVIDIA GeForce 9400M (G) / ION (LE) (MCP79MX), Intel HD Graphics (Sandy Bridge) (Sandy Bridge), VIA Chrome9HD, AMD Radeon HD 7340 (Zacate), AMD Radeon HD 6320 (Zacate), AMD Radeon HD 7310 (Zacate), AMD Radeon HD 6310 (Zacate), AMD Radeon HD 8180 (Temash), ATI Mobility Radeon HD 3470 Hybrid X2 (M82-XT + RS780M), NVIDIA GeForce 9400M GeForceBoost, ATI Mobility Radeon HD 3470 (M82-XT), NVIDIA GeForce 9300M G (NB9M-GS1), NVIDIA ION 2 (GT218-ION-A3, GT218-ILV-A3), NVIDIA GeForce 9300M GS (NB9M-GS), NVIDIA GeForce 9200M GS (NB9M-GE), AMD Radeon HD 7290 (Zacate), AMD Radeon HD 6290 (Zacate), ATI Mobility Radeon HD 3450 (M82), ATI Mobility Radeon HD 3430 (M82-SE), ATI Mobility Radeon HD 3410 (M82-MPE), ATI Mobility Radeon HD 2400 XT (M74), ATI Radeon HD 4270 (RS880M), ATI Radeon HD 4250 (RS880M), ATI Radeon HD 4200 (RV620), Intel Graphics Media Accelerator (GMA) HD Graphics (GMA HD), AMD Radeon HD 6250 (Zacate), ATI Mobility Radeon X1350 (M52), ATI Mobility Radeon X1400 (M54), NVIDIA GeForce 9100M G (MCP77MH MCP79MH), NVIDIA GeForce 8400M GS (G86M), ATI Mobility Radeon HD 2400 (M72), ATI Radeon HD 3200 (RS780M), ATI Radeon HD 4225 (RS880M), ATI Radeon HD 4100, ATI Mobility Radeon HD 3400, ATI Radeon HD 3100 (RS780MC), NVIDIA GeForce 8400M G (G86M), NVIDIA GeForce 8200M G (MCP77MV MCP79MVL), Intel Graphics Media Accelerator (GMA) 4700MHD (Montevina), Intel Graphics Media Accelerator (GMA) 4500MHD (Montevina), Intel Graphics Media Accelerator (GMA) 4500M (GL40), NVIDIA GeForce Go 7400 (G72M), NVIDIA GeForce Go 7300 (G72M), ATI Mobility Radeon X600 (M24), ATI Mobility Radeon X2300 (M64), ATI Mobility Radeon HD 2300 (M71), ATI Mobility Radeon 9700 (M11), ATI Mobility Radeon X1300 (M52), NVIDIA GeForce4 4200 Go (NV28M), ATI Mobility Radeon 9600 (M10), ATI Mobility Radeon 9550 (M12), NVIDIA GeForce Go 7200 (G72M), NVIDIA GeForce Go 6400 (NV44M1), ATI Mobility Radeon X300 (M22), NVIDIA GeForce Go 6250 (NV44M1), NVIDIA GeForce Go 6200 (NV44MV), NVIDIA GeForce FX Go 5700 (NV36M), NVIDIA GeForce FX Go 5600 / 5650 (NV31M), ATI Radeon Xpress X1270 (M690T), ATI Radeon Xpress X1250 (RS690M), ATI Radeon Xpress 1250, ATI Radeon Xpress X1200 (RS690M), Intel Graphics Media Accelerator (GMA) X3100 (Crestline), Intel Graphics Media Accelerator (GMA) 3650 (Cedar Trail), NVIDIA GeForce 7190M, NVIDIA GeForce 7150M (C67), ATI Radeon Xpress 1150 (RS482M), NVIDIA GeForce Go 6150 (C51MV), NVIDIA GeForce Go 6100 (C51MV), NVIDIA GeForce 7000M (C67), Intel Graphics Media Accelerator (GMA) 3600 (Cedar Trail), ATI Mobility Radeon 9200 (M9), NVIDIA GeForce FX Go 5200 (NV31M), ATI Mobility Radeon 9000 (M9), NVIDIA GeForce 4 488 Go (NV17M), NVIDIA GeForce 4 460 Go (NV17M), NVIDIA GeForce 4 440 Go (NV17M), NVIDIA GeForce 4 420 Go (NV17M), Intel Graphics Media Accelerator (GMA) 3150 (Pineview), Intel Graphics Media Accelerator (GMA) 950 (GMA 950), ATI Mobility Radeon 7500 (RV200), Intel Graphics Media Accelerator (GMA) 900 (GMA 900), ATI Radeon Xpress 200M, ATI Radeon Xpress 1100, SIS Mirage 3+ 672MX (SISM672), SIS Mirage 3 671MX (671MX), Intel Graphics Media Accelerator (GMA) 600 (GMA 600), Intel Graphics Media Accelerator (GMA) 500 (GMA 500), NVIDIA GeForce 3 Go, NVIDIA GeForce 2 Go (200 / 100) (NV11), ATI Mobility Radeon 9100 IGP (RS350), ATI Mobility Radeon 9000 IGP (RC350), ATI Mobility Radeon M7 (M7), ATI Mobility Radeon M6 (M6), VIA Chrome9 HC (VN896), Intel Extreme Graphics 2 (Montara), ATI Mobility Radeon 7000 IGP (R100), ATI Radeon IGP 340M, ATI Radeon IGP 320M, VIA S3G UniChrome Pro II (Zoetrope), VIA S3G UniChrome Pro (Zoetrope), VIA Castle Rock (CLE266), SIS Mirage 2 M760 (M760), SIS Mirage M661FX , VIA S3 Graphics ProSavage8, ATI Mobility 128 M3 (M3), Silicon Motion SM502, unknown

Обзор и тестирование видеокарты для ноутбуков NVIDIA GeForce RTX 3080

Серия видеокарт RTX 3000 для ноутбуков, появилась только в начале 2021 года, то есть позже настольных аналогов, которые как все мы знаем были анонсированы осенью 2020 года. Сразу же после анонса мобильная серия RTX 3000 принесла всем любителям игровых ноутбуков несколько неприятных сюрпризов. Как оказалось в отличие от последних поколений видеокарт Nvidia  для ноутбуков, где была сильная привязка технических характеристик к таковым у настольного сегмента, новые мобильные видеокарты 3000 серии получили ощутимые отклонения в спецификациях. Всех больше от урезания характеристик как оказалось пострадал флагман мобильного сегмента RTX 3080, который мы как раз и рассмотрим в этом обзоре.

Линейка мобильных устройств серии RTX 30 заменит существующую линейку устройств серии RTX 20, которая основана на архитектуре графического процессора Turing и предложит улучшенную производительность. Основу NVIDIA GeForce RTX 3080 составляет новый графический процессор на архитектуре Ampere с кодовым обозначением GA104-775-A1 выполненный по 8 н.м. литографии. В графическом процессоре мобильной GeForce RTX 3080 активно 6144 потоковых процессора, 192 текстурных блока и 96 POPs, настольный вариант этой видеокарты задействует 68 SM с 8704 потоковыми процессорами, как видим мобильная GeForce RTX 3080 в отличии от настольной оперирует меньшим количеством  потоковых процессоров, что естественным образом скажется на производительности. Что касается тензорных и RT ядер, то настольная GeForce RTX 3080 имеет в своем составе 272 и 68 ядра, мобильная версия по этому показателю так же отстает, 192 и 48 ядер соответственно. Отметим, что в новой 3000 серии по сравнению с предшествующей изменению подверглась структура SM. Удвоено количество вычислительных ядер, половина из которых наряду с FP32 может работать с операциями INT32. В итоге один массив SM выполняет за такт 128 операций FP32 или 64 FP32 + 64 INT32. Так же изменилась структура кэш-памяти и ее пропускная способность. Ampere использует тензорные ядра третьего поколения для ускорения операций глубокого обучения, они поддерживают новые форматы вычислений для повышенной производительности и гибкости программирования. RT-ядра второго поколения ускоряют операции при просчете трассировки лучей, заявлено о двукратном росте быстродействия относительно первого поколения.

По частотам так же есть отличия мобильной и настольной версии, например полноценная версия для ПК работает на базовой частоте ядра, 1440 МГц, а  в режиме Boost видеокарта способна выдавать 1710 МГц, у мобильной версии данный показатель заметно ниже это 780 — 1545 МГц. Специально для новых видеокарт NVIDIA и Micron Technology разработали новый тип графической памяти GDDR6X, но это опять же только для настольной версии, мобильная видеокарта комплектуется обычной памятью GDDR6.  В памяти нового стандарта GDDR6X реализован  4-уровненый метод амплитудно-импульсной модуляции, позволяющий удвоить ее пропускную способность. У старой GDDR6 передается два бита за цикл — по переднему и заднему фронту синхроимпульса. У GDDR6X передается два бита на фронт через кодирование разным уровнем напряжения, что дает в итоге четыре бита за такт, соответственно настольная видеокарта работает на  320 битной шине, мобильная 256 битной. Частоты памяти так же отличаются мобильная GeForce RTX 3080 оперирует 1500\1750 МГц с эффективностью 14 Гбит/с при пропускной способности 384\448 ГБ/с, а настольная 19000 МГц с эффективностью 19 Гбит/с  при пропускной способности 760,3 ГБ/с. Объем памяти может составлять как 8 так и 16 ГБу настольной версии данный показатель равен 10 ГБ. Что интересно на сайте Nvidia нет упоминания видеокарт серии RTX 30 с пониженным TDP max-Q 80 — 90 Вт, скорее всего производитель решил отказаться от данного названия в наименовании видеокарт, вместо этого TGP видеокарты GeForce RTX 3080 может составлять минимам 80 Вт максимум 150+ Вт, от данного показателя напрямую будет зависеть производительность видеокарты, то есть производитель ноутбуков сам будет решать ограничивать TGP (Общая графическая мощность графического процессора) видеокарты или нет. При выборе ноутбука с видеокартами серии RTX 30 сложно будет определить TGP установленной видеокарты так как грань между моделями Max-Q (оптимизированная эффективность) и Max-P (оптимизированная производительность) теперь определяется только на программном уровне.     

Технические характеристики

Производитель
Nvidia 
Техпроцесс
8 н.м
Кодовое имя
GN20-E7 GA104 (Ampere)
Частота GPU
780 — 1545 МГц
Потоковые процессоры (Shading Units)
6144
Текстурные блоки(TMUs)
192
Конвейеры растровых операций (ROPs)
96
Ядра Tensor
192
Ядра RT
48
Тип памяти
GDDR6
Ширина шины памяти
256 Бит
Частота памяти
1500/1750 МГц 
Объем памяти
8\16ГБ
Потребляемая мощность(TDP)
80-150+ Вт

Синтетические тесты 

3DMark 

3DMark Fire Strike — это красивое популярное приложение с поддержкой API DirectX 11 для тестирования компьютеров с высокопроизводительными игровыми видеокартами в среде Windows. Результаты 3DMark Fire Strike помогают оценить сравнительную производительность видеокарты и её пригодность для работы в самых требовательных компьютерных играх. 


3DMark — Fire Strike Graphics 1920×1080


NVIDIA GeForce RTX 3070 Laptop, TGP 140Вт.

27968

NVIDIA GeForce RTX 3080 Laptop, TGP 100Вт. 

25339

NVIDIA GeForce RTX 2070 Super Mobile 

22183

NVIDIA GeForce RTX 3070 Laptop, TGP 85Вт.

21820

NVIDIA GeForce RTX 2080 Super Max-Q

19914

 

Дословно FPS расшифровывается как «Frame per second», или же кадры в секунду. Соответственно, чем больше данная цифра, тем более плавной будет картинка на дисплее во время игры. Сколько FPS необходимо для комфортной игры? Однозначно ответить на этот вопрос сложно, хотя бы потому, что в разных игровых движках при одинаковом количестве кадров в секунду качество изображения может быть разным. Однако, существует распространенное мнение, что 30 FPS  будет вполне достаточно для плавной игры. 

Тестирование в играх

Cyberpunk 2077  — приключенческая ролевая игра, действие которой происходит в мегаполисе Найт-Сити, где власть, роскошь и модификации тела ценятся выше всего. Вы играете за V, наёмника в поисках устройства, позволяющего обрести бессмертие. Cyberpunk 2077 получил четвертую версию игрового движка REDengine, который представляет собой улучшенную и усовершенствованную версию «родного» движка компании CD Projekt RED. Улучшенный движок на самом деле позволяет игре отображать удивительную детализацию лиц, немного превосходя в этом плане такие вещи в Horizon Zero Dawn. Продуманный самобытный дизайн и высокое внимание к мелким деталям — вот два столпа визуальной красоты Cyberpunk 2077. Что немаловажно CD Projekt не стали гнаться за новыми высотами полигональной детализации объектов или введением каких-то принципиально новых графических технологий, как любит поступать Crytek, а сосредоточились на кропотливой и творческой проработке проверенных временем старых элементов, возведя их на принципиально новый  уровень.


Настройки: дисплей разрешение 1920 x1080 пикселей, детализация: Ultra, (Ray Tracing нет), (DLSS нет) 


 FPS- среднее количество кадров в секунду 

NVIDIA GeForce RTX 3070 Laptop, TGP 140Вт.

70

NVIDIA GeForce RTX 3080 Laptop, TGP 100Вт. 

70

NVIDIA GeForce RTX 3070 Laptop, TGP 85Вт.

50


Настройки: дисплей разрешение 1920 x1080 пикселей, детализация: Ultra, (Ray Tracing да), (DLSS нет) 


 FPS- среднее количество кадров в секунду 

NVIDIA GeForce RTX 3070 Laptop, TGP 140Вт.

32

NVIDIA GeForce RTX 3080 Laptop, TGP 100Вт. 

30

NVIDIA GeForce RTX 3070 Laptop, TGP 85Вт.

24

   

Настройки: дисплей разрешение 1920 x180 пикселей, детализация: High


 FPS- среднее количество кадров в секунду 

NVIDIA GeForce RTX 3070 Laptop, TGP 140Вт.

77

NVIDIA GeForce RTX 3080 Laptop, TGP 100Вт. 

74

NVIDIA GeForce RTX 3070 Laptop, TGP 85Вт.

63


Настройки: дисплей разрешение 1920 x1080 пикселей, детализация: Ultra, 


 FPS- среднее количество кадров в секунду 

NVIDIA GeForce RTX 3070 Laptop, TGP 140Вт.

69

NVIDIA GeForce RTX 3080 Laptop, TGP 100Вт. 

65

NVIDIA GeForce RTX 3070 Laptop, TGP 85Вт.

56

    

Crysis: Remastered. Классический шутер от первого лица от Crytek возвращается с динамическим игровым процессом, режимом «песочницы» и захватывающими эпическими битвами. В игре вас ждет обновленная графика, оптимизированная для оборудования нового поколения. Скорость, сила, броня и маскировка нанокостюма помогут победить в любом бою, а благодаря огромному арсеналу вы сможете сами выбирать свой стиль игры для достижения невероятных результатов. В постоянно меняющихся условиях адаптируйте свою тактику и снаряжение, чтобы побеждать своих врагов в огромном мире. Crysis: Remastered основан на модифицированном CryEngine 2, который написан так же как и его предшественник на С++. CryEngine 2 на момент своего выхода является самым технологически продвинутым и фотореалистичным движком по сравнению с конкурентами. С технической точки зрения Crysis Remastered предлагает немало: текстуры высокого разрешения до 8K, HDR, TAA, Screen Space Directional Occlusion (SSDO), Global Illumination (SVOGI), новые эффекты освещения, размытие движения, Parallax Occlusion Mapping, Screen Space Reflections (SSR) и Screen Space Shadows (SSS), а также обновленные эффекты частиц. Упоминается и трассировка лучей. Также Crysis Remastered поддерживает DLSS. 


Настройки: дисплей разрешение 1920 x180 пикселей, детализация: High


 FPS- среднее количество кадров в секунду 

NVIDIA GeForce RTX 3070 Laptop, TGP 140Вт.

86

NVIDIA GeForce RTX 3080 Laptop, TGP 100Вт. 

79

NVIDIA GeForce RTX 3070 Laptop, TGP 85Вт.

63


Настройки: дисплей разрешение 1920 x1080 пикселей, детализация: Very High


 FPS- среднее количество кадров в секунду 

NVIDIA GeForce RTX 3070 Laptop, TGP 140Вт.

61

NVIDIA GeForce RTX 3080 Laptop, TGP 100Вт. 

57

NVIDIA GeForce RTX 3070 Laptop, TGP 85Вт.

47

    

Metro: EXODUS — шутер от первого лица сработанный студией 4A Engine по роману Дмитрия Глуховского, скорее всего последняя часть и вероятный финал сериала франшизы Metro 2033. Сюжет разворачивается на территории постапокалиптической Российской Федерации, где выжившие после ядерной войны сумели укрыться в большом московском метро и пытаются выжить под натиском атак злобных хищников-мутантов, а также враждующих фракций. 4A Engine — игровой движок, разработанный украинской компанией 4A Games для использования в своей компьютерной игре «Metro 2033», изданной THQ 16 марта 2010 года.  Игра не содержит предустановленных режимов детализации изображения, хотя они есть в утилите, запускающей встроенный бенчмарк, — от низкой до ультравысокой. Среди индивидуальных настроек можно отрегулировать только общее «качество» изображения, размер выборки пикселов для анизотропной фильтрации, интенсивность размытия движущихся объектов, а также глубину тесселяции геометрических примитивов. В качестве основного метода полноэкранного сглаживания игра использует собственную разновидность временного алгоритма (TAA — Temporal Anti-Aliasing) — его нельзя отключить, но, судя по сведениям от NVIDIA, TAA здесь работает очень мягко и наверняка мало влияет на общее быстродействие. Как и в большинстве игр такого калибра, как Metro Exodus, движок позволяет масштабировать качество изображения в широких пределах, причем разница между низким, средним и ультравысоким профилями детализации выражена чрезвычайно сильно. 


Настройки: дисплей разрешение 1920 x1080 пикселей, детализация Ultra


 FPS- среднее количество кадров в секунду 

NVIDIA GeForce RTX 3070 Laptop, TGP 140Вт.

92

NVIDIA GeForce RTX 3080 Laptop, TGP 100Вт. 

85

NVIDIA GeForce RTX 3070 Laptop, TGP 85Вт.

69


Настройки: дисплей разрешение 1920 x1080 пикселей, детализация Ultra


 FPS- среднее количество кадров в секунду 

NVIDIA GeForce RTX 3070 Laptop, TGP 140Вт.

74

NVIDIA GeForce RTX 3080 Laptop, TGP 100Вт. 

68

NVIDIA GeForce RTX 3070 Laptop, TGP 85Вт.

57

    

Red Dead Redemption 2 — компьютерная игра в жанрах action-adventure и шутера от третьего лица с открытым миром, разработанная и выпущенная Rockstar Games. Действие Red Dead Redemption 2, оформленной в духе вестерна, происходит в 1899 году на Диком Западе, на территории нескольких вымышленных штатов США. Сюжет игры построен вокруг приключений банды Датча Ван дер Линде; под управлением игрока находится Артур Морган, один из членов банды. После неудачного ограбления парома бандиты вынуждены скрываться в глуши от федеральных агентов и охотников за головами. Red Dead Redemption 2 использует в своей основе Rockstar Advanced Game Engine. «Rockstar Advanced Game Engine» является полнофункциональным игровым движком, который содержит графический движок, физический движок, звуковой движок, анимационный движок, игровой искусственный интеллект, работу с сетью, скриптовый язык и другие компоненты. Так как движок ориентировался на использования в играх, которые имеют «открытый бесшовный мир», то основным преимуществом движка является его способность эффективно обрабатывать большие игровые пространства. 


Настройки: дисплей разрешение 1920 x1080 пикселей, детализация: High


 FPS- среднее количество кадров в секунду 

NVIDIA GeForce RTX 3070 Laptop, TGP 140Вт.

89

NVIDIA GeForce RTX 3080 Laptop, TGP 100Вт. 

85

NVIDIA GeForce RTX 3070 Laptop, TGP 85Вт.

67


Настройки: дисплей разрешение 1920 x1080 пикселей, детализация: Maximum


 FPS- среднее количество кадров в секунду 

NVIDIA GeForce RTX 3070 Laptop, TGP 140Вт.

61

NVIDIA GeForce RTX 3080 Laptop, TGP 100Вт. 

57

NVIDIA GeForce RTX 3070 Laptop, TGP 85Вт.

46

   

Call of Duty Black Ops Cold War. В последние годы CoD то и дело возвращается к истокам. Сначала WWII попыталась возродить у геймеров интерес ко Второй мировой, а в прошлом году был перезапущен цикл Modern Warfare. Cold War, хотя и прикидывается сиквелом самой первой Black Ops, по сути, тоже перезапускает серию, а в чём-то даже выступает откровенным ремейком. Действие новой игры разворачивается в 1981 году, почти через двадцать лет после событий BO1. Но создатели  — не упускают возможности вернуться к былым локациям и сюжетным ходам. Буквальные флэшбеки во Вьетнам, экскурсия на Кубу и в горы Ямантау, битвы на вертолётах и допросы с пристрастием, демонические русские злодеи, программы по изменению сознания и финал, в котором «хорошим парням» нужно сорвать радиосигнал Судного дня. В основе игры лежит движок Treyarch Engine — технологии, на которой была основана Black Ops 4. Это было вполне ожидаемо, поскольку специалисты студии гордятся своим ответвлением движка Call of Duty и, вероятно, будут развивать его и дальше — в соответствии со своими задачами. Графика в Call of Duty Black Ops Cold War схожа с прошлогодней частью серии, поэтому  доступно HDR-освещение, самозатенение, bounce lighting  и reveal-маппинг. 


Настройки: дисплей разрешение 1920 x1080 пикселей, детализация: High


 FPS- среднее количество кадров в секунду 

NVIDIA GeForce RTX 3070 Laptop, TGP 140Вт.

83

NVIDIA GeForce RTX 3080 Laptop, TGP 100Вт. 

89

NVIDIA GeForce RTX 3070 Laptop, TGP 85Вт.

82


Настройки: дисплей разрешение 1920 x1080 пикселей, детализация: Highest


 FPS- среднее количество кадров в секунду 

NVIDIA GeForce RTX 3070 Laptop, TGP 140Вт.

76

NVIDIA GeForce RTX 3080 Laptop, TGP 100Вт. 

81

NVIDIA GeForce RTX 3070 Laptop, TGP 85Вт.

73

   

Battlefield V представляет из себя шутер от первого лица, в котором геймеру предстоит побывать в различных уголках земного шара во времена Второй мировой войны. Геймплей является крайне разнообразным и интересным, в связи с чем данная игра полюбилась миллионам людей. Игра использует в своей основе Frostbite Engine 3.5. Frostbite Engine — игровой движок, разработанный компанией EA Digital Illusions CE; применяется как в собственных разработках, так и проектах других филиалов Electronic Arts. Что касается визуального ряда, Battlefield V ставит новые стандарты качества картинки для шутера на основе улучшенного движка Frostbite. Вряд ли можно найти другой столь красивый военный шутер, как бы ни банально это звучало. Приятно выделяется и однопользовательская кампания, поскольку для многопользовательского режима EA и DICE выбрали компромисс между производительностью и внешним видом. Нельзя сказать, что картинка сильно хуже, но все же разработчики уделили основное внимание производительности. Единственный негативный момент касается уровня детализации в зависимости от дистанции обзора. Независимо от выбранного уровня качества графики, объекты всегда прорисовываются на определенной дистанции — хотя могли бы появляться намного раньше/дальше.


Настройки: дисплей разрешение 1920 x1080 пикселей, детализация: Ultra, DXR нет


 FPS- среднее количество кадров в секунду 

NVIDIA GeForce RTX 3070 Laptop, TGP 140Вт.

138

NVIDIA GeForce RTX 3080 Laptop, TGP 100Вт. 

125

NVIDIA GeForce RTX 3070 Laptop, TGP 85Вт.

106

NVIDIA GeForce RTX 2080 Super Max-Q.

118


Настройки: дисплей разрешение 1920 x1080 пикселей, детализация: Ultra, DXR да


 FPS- среднее количество кадров в секунду 

NVIDIA GeForce RTX 3070 Laptop, TGP 140Вт.

79

NVIDIA GeForce RTX 3080 Laptop, TGP 100Вт. 

78

NVIDIA GeForce RTX 3070 Laptop, TGP 85Вт.

64

NVIDIA GeForce RTX 2080 Super Max-Q.

60

   

Borderlands 3 всеми любимый шутер с горами лута возвращается, приготовив тонны стволов и безбашенные приключения! Вас ждут ураганные бои в неизведанных мирах с новыми противниками. Borderlands 3, как и все предыдущие эпизоды франшизы, основана на графическом движке Unreal Engine, в этот раз — на его четвертой, самой современной версии. В игровой индустрии последних лет это одна из наиболее востребованных и заслуженных софтверных платформ — наряду с Unity и CryEngine. Движок Borderlands 3 интегрированы библиотеки FidelityFX, созданные AMD, которые выполняют функции постобработки изображения, в данном случае — усиливают четкость за счет локального контраста. Для игры, стилизованной под комикс, эта опция подходит идеально, а главное, сама технология не привязана к железу того или иного производителя и вполне может работать на видеокартах NVIDIA.


Настройки: разрешение 1920 x1080 пикселей, детализация: High 


FPS- среднее количество кадров в секунду

NVIDIA GeForce RTX 3070 Laptop, TGP 140Вт.

105

NVIDIA GeForce RTX 3080 Laptop, TGP 100Вт. 

94

NVIDIA GeForce RTX 3070 Laptop, TGP 85Вт.

78


Настройки: разрешение 1920 x1080 пикселей, детализация :Badass 


FPS- среднее количество кадров в секунду 

NVIDIA GeForce RTX 3070 Laptop, TGP 140Вт.

88

NVIDIA GeForce RTX 3080 Laptop, TGP 100Вт. 

76

NVIDIA GeForce RTX 3070 Laptop, TGP 85Вт.

65

Заключение 

Подведем итог, как мы и думали показатель TGP достаточно сильно влияет на производительность, новая NVIDIA GeForce RTX 3080 как оказалось уступает NVIDIA GeForce RTX 3070, хотя такого быть не должно так как GeForce RTX 3080 стоит выше чем GeForce RTX 3070. Скорее всего нужно дождаться ноутбуки с NVIDIA GeForce RTX 3080 у которой TGP будет составлять 150 Вт, тогда и производительность в играх будет выше. К функции трассировки лучей в реальном времени так же есть вопросы, Nvidia заявляла, что с выходом новой серии RTX 3000 данная технология была в них улучшена, что соответственно должно сказаться на производительности в лучшую сторону, на примере Battlefield V видно, что прогресс все-таки есть, но не такой существенный как хотелось бы. В целом RTX 3080 Laptop GPU – очень хорошая видеокарта, которая превращает ноутбук в полноценный игровой компьютер, но если у вас есть ноутбук с видеокартой RTX 2080 Super Max-Q или RTX 2080, то бежать и покупать новый ноутбук не стоит. Можно спокойно подождать еще пару тройку лет, так как запас производительности у 20-й серии достаточно большой.   

 

Сравнительный тест видеокарт NVIDIA GTX 1660 Ti от ASUS, MSI, Gigabyte и Inno3D. Убрали лишнее?

29.03.19

 

Сравнение референсных характеристик видеокарт NVIDIA GeForce RTX 2060, GTX 1660 Ti, GTX 1660 и GTX 1070

Сводная таблица характеристик представленных в тесте видеокарт на базе NVIDIA GeForce GTX 1660 Ti

Видеокарта ASUS ROG Strix GeForce GTX 1660 Ti OC edition

Видеокарта MSI GeForce GTX 1660 Ti GAMING X 6G

Видеокарта Gigabyte GeForce GTX 1660 Ti WINDFORCE OC 6G

Видеокарта Inno3D GeForce GTX 1660 Ti Twin X2

Описание тестового стенда и методики тестирования

Гистограммы с результатами тестов и выводы

 

Первые видеокарты NVIDIA нового поколения с архитектурой Turing (RTX 2080 Ti, RTX 2080, RTX 2070, RTX 2060) получили немало критики. Преимущества технологий тензорных и RT-ядер оказались, как минимум, спорными, но привели к значительному удорожанию сложности и стоимости видеокарт.

 

Об этом вы можете подробнее почитать в нашем материале, посвященном видеокартам на базе RTX 2070.

 

Отличительной особенностью видеокарт серии NVIDIA GeForce GTX 1660 Ti, представленных в феврале 2019 года, от ее старших собратьев является отсутствие «пресловутых» тензорных ядер и RT-ядер, но архитектура у графического процессора та же — Turing. Это позволило сделать видеокарту намного более привлекательной по стоимости.

 

Приставка GTX, а не RTX, в названии GTX 1660 Ti — это еще одна деталь, указывающая на отсутствие RT-ядер.

 

Соответственно, модели на базе GTX 1660 Ti не имеют аппаратной поддержки трассировки лучей (Ray Tracing) и не поддерживают метод сглаживания DLSS (Deep Learning Super Sampling).

 

Насколько критично отсутствие этих технологий? На данный момент это не так важно. Даже в топовых видеокартах RTX активация Ray Tracing может приводить к падению производительности ниже комфортного уровня. Поэтому наличие RT-ядер в более слабых видеокартах является, скорее, номинальным. И это не говоря уже о том, что изображение с применением Ray Tracing в большинстве случаев не выглядит радикально лучше.

 

Распространение DLSS в играх пока также весьма скромное.

 

Особенности NVIDIA GeForce GTX 1660 Ti и позиционирование

 

Видеокарты NVIDIA GeForce GTX 1660 Ti условно относятся к среднему классу и приходят на смену очень удачным моделям прошлого поколения на базе GTX 1060.

 

Производитель (NVIDIA) заявляет о росте производительности до 50 % над GTX 1060. Новая GTX 1660 Ti должна составить хорошую конкуренцию GTX 1070, что мы посмотрим в результатах тестов.

 

В иерархии видеокарт нового поколения NVIDIA модель GTX 1660 Ti разместилась между чуть более мощной RTX 2060 и более простой GTX 1660.

 

Сравнение референсных характеристик видеокарт NVIDIA GeForce RTX 2060, GTX 1660 Ti, GTX 1660 и GTX 1070

 

Анализируя характеристики видеокарт RTX 2060, GTX 1660 Ti, GTX 1660, можно заметить значительное уменьшение пощади кристаллов GPU моделей GTX 1660 Ti, GTX 1660, что в основном обусловлено отсутствием тензорных и RT-ядер. А чем меньше площадь, тем и меньше стоимость производства чипа при прочих равных.

 

Как и в старших моделях NVIDIA нового поколения, тут используются новый 12-нанометровый техпроцесс и память GDDR6.

 

Обращаем внимание, что объем видеопамяти составляет 6 ГБ. Такой же максимальный объем был доступен и в видеокартах прошлого поколения GTX 1060.

 

Энергопотребление TDP видеократ GTX 1660 Ti заявлено на уровне 120 Вт. Для дополнительного питания используется восьмиконтактный разъем.

 

 

Набор видеовыходов в видеокартах на базе NVIDIA GeForce GTX 1660 Ti от разных производителей обычно представлен в виде трех DisplayPort и одного HDMI. Если отсутствие DVI в старших видеокартах нового поколения является логичным, то в данном случае такой разъем не помешал бы.

 

Сами выдеовыходы стали более современными. DisplayPort теперь соответствуют версии DisplayPort 1.4a, а HDMI — HDMI 2.0b.

 

Учитывая использование новой архитектуры, в GTX 1660 Ti вы автоматически получаете и новые функции, связанные с видеокодеками, декодированием и т. д. К примеру, добавлена поддержка компрессии данных в формате H.265 (HEVC) в режиме разрешении [email protected], а также повышено качество кодирования HEVC и H.264.

 

Участники теста

 

У некоторых может возникнуть чувство дежавю, ведь в нашем прошлом сравнительном тесте видеокарт (а тогда это были модели на базе RTX 2070) присутствовали видеокарты абсолютно тех же вендоров.

 

Итак, для сравнительного теста видеокарт на базе NVIDIA GTX 1660 Ti нам удалось собрать видеокарты ASUS ROG Strix GeForce GTX 1660 Ti OC edition, Gigabyte GeForce GTX 1660 Ti WINDFORCE OC 6G, Inno3D GeForce GTX 1660 Ti Twin X2, MSI GeForce GTX 1660 Ti GAMING X 6G.

 

Видеокарты ASUS ROG Strix GeForce GTX 1660 Ti OC edition, Gigabyte GeForce GTX 1660 Ti WINDFORCE OC 6G, Inno3D GeForce GTX 1660 Ti Twin X2 и MSI GeForce GTX 1660 Ti GAMING X 6G

 

Они заметно отличаются по размерам. Присутствуют как очень продвинутые по частотам устройства с мощной системой подсветки, так и более скромные модели.

 

Сравним…

 

Сравнительная таблица характеристик

 

ASUS ROG Strix GeForce GTX 1660 Ti OC editionGigabyte GeForce GTX 1660 Ti WINDFORCE OC 6GInno3D GeForce GTX 1660 Ti Twin X2MSI GeForce GTX 1660 Ti GAMING X 6G
Кодовый идентификатор моделиROG-STRIX-GTX1660TI-O6G-GAMINGGV-N166TWF2OC-6GDN166T2-06D6-1710VA15
ПоставщикПредстав-во ASUSПредстав-во GigabyteПредстав-во Inno3DПредстав-во MSI
Цена (около), $405365349403
Технические характеристики
ЧипсетNVIDIA GeForce GTX 1660 TiNVIDIA GeForce GTX 1660 TiNVIDIA GeForce GTX 1660 TiNVIDIA GeForce GTX 1660 Ti
Техпроцесс чипсета, нм12121212
Тип и объем памяти, ГБGDDR6, 6GDDR6, 6GDDR6, 6GDDR6, 6
Конструкция системы охлажденияфирменнаяфирменнаяфирменнаяфирменная
Количество вентиляторов системы охлаждения3222
Количество занимаемых слотов3222
Субъективная оценка шумности охлажденияОтличноХорошоХорошоХорошо
Номинальная частота GPU1500150015001500
Частота в Turbo-режиме1860184517701875
Рабочая частота памяти (результирующая), МГц12 00012 00012 00012 000
Шина памяти, бит192192192192
Требует дополнительного питания?дададада
Тип разъема доп. питания8pin8pin8pin8pin
ПодсветкаRGB управлямаяRGB управлямая
Количество выходов HDMI/DisplayPort/USB Type-C2/2/01/3/01/3/01/3/0

 

ASUS ROG Strix GeForce GTX 1660 Ti OC edition (ROG-STRIX-GTX1660TI-O6G-GAMING)

 

ASUS ROG Strix GeForce GTX 1660 Ti OC edition (ROG-STRIX-GTX1660TI-O6G-GAMING)

 

 

На данный момент ASUS представляет широчайший выбор из девяти моделей на базе GTX 1660 Ti.

 

Участвующая в тесте ASUS ROG Strix GeForce GTX 1660 Ti OC edition является самой мощной во всем ассортименте GTX 1660 Ti производителя.

 

ASUS ROG Strix GeForce GTX 1660 Ti OC edition единственная в тесте получила конфигурацию видеовыходов с двумя разъемами HDMI. Возможно, это связано с адаптацией для использования некоторых VR-шлемов

 

Модель относится к серии ROG Strix. Дизайн видеокарт данной серии ASUS оставила практически без изменений. И адаптеры прошлого поколения ROG Strix GTX 10X0 выглядели примерно так же.

 

Даже для такой сравнительно экономичной модели, как GTX 1660 Ti производитель установил очень развитый крупный радиатор, пронизанный тепловыми трубками, с тремя вентиляторами.

 

Любопытная деталь: концы лопастей вентиляторов соединены кольцом. Ранее такое решение у моделей ASUS ROG Strix мы не встречали

 

 

Результат не заставил себя ждать. По эффективности охлаждения ROG Strix GeForce GTX 1660 Ti OC edition опередила всех остальных участников теста.

 

Мониторинг работы ASUS ROG Strix GeForce GTX 1660 Ti OC edition в приложении MSI Afterburner

 

Под нагрузкой в наших условиях температура стабилизировалась на отметке 60 °C и для этого вентиляторам хватило скорости всего в 950 об./мин.

 

Получается, что графическая карта и отлично охлаждается, и работает очень тихо.

 

При низкой температуре GPU вентиляторы автоматически останавливаются. Такой функцией сегодня уже не удивишь.

 

Характеристики ASUS ROG Strix GeForce GTX 1660 Ti OC edition (данные приложения GPU-Z)

 

Вполне ожидаемо графический адаптер получил приличный заводской разгон. Значение частота в Boost-режиме составляет 1860 МГц. А вот частота памяти соответствует референсной.

 

Кстати, хотя MSI GeForce GTX 1660 Ti GAMING X 6G имеет еще чуть более высокую Boost-частоту по результатам тестов именно ASUS ROG Strix GeForce GTX 1660 Ti OC edition оказалась самой быстрой видеокартой в тесте среди других видеокарт на базе GTX 1660 Ti. Хотя разница в производительности просто мизерная. Практически на уровне погрешности.

 

Для энтузиастов и любителей разгона наверняка будет немаловажным, что модель позволят довольно существенно (до 120%) увеличить предел энергопотребления и это единственная плата в тесте, где GPU обеспечивается 6-фазным питанием.

 

Традиционно модели ASUS ROG Strix оснащены целым рядом интересных дополнительных деталей.

 

 

На плате установлены сразу две микросхемы BIOS с немного измененными режимами работы устройства. Вариант Performance предусматривает повышенную эффективность охлаждения, а Quiet рассчитан на более тихую эксплуатацию. Выбор BIOS осуществляется специальным переключателем.

 

Все тесты мы проводили в режиме Performance.

 

Подсветку, при желании, можно полностью отключить даже без установки соответсвующего фирменного ПО. Для этого на плате размещена специальная кнопка.

 

Но и это еще не все. Дополнительно имеется площадка для ручного измерения напряжения RAM, GPU, PLL и набор контактов для подключения светодиодной ленты и корпусных вентиляторов. Скорость вращения этих вентиляторов можно связать с температурой GPU.

 

RBG-подсветка ASUS ROG Strix GeForce GTX 1660 Ti OC edition

 

Управление подсветкой ASUS ROG Strix GeForce GTX 1660 Ti OC edition

 

Система подсветки Aura RGB lighting довольно развитая. Светящиеся RGB-элементы расположены на передней и боковой (надпись Republic of Gamers). А вот светящегося логотипа на задней панели, как, напрмиер, в ASUS ROG Strix GeForce RTX 2070 OC edition, тут нет.

 

Для управления подсветкой предусмотрено специальное фирменное приложение. Доступны различные динамические эффекты.

 

Заметим, что все подсвечиваемые элементы меняют цвет, интенсивность свечения одновременно. Соответственно, такие эффекты как «змейка», радужные переливы, когда разные части платы имеют разный цвет свечения тут недоступны.

 

Все-таки на решениях подсветки, которые использовались еще в прошлом поколении видеокарт сегодня уже довольно сложно конкурировать с продвинутыми моделями конкурентов и ASUS ROG Strix GeForce GTX 1660 Ti OC edition, в этом плане, уступает модели MSI GeForce GTX 1660 Ti GAMING X 6G.

 

Фирменное ПО по возможностям примерно представляет собой объединение MSI Afterburner и GPU-Z

 

Подытоживая можно сказать, что ASUS ROG Strix GeForce GTX 1660 Ti OC edition является интереснейшим вариантом на базе GTX 1660 Ti. У нее оказалась самая продвинутая система охлаждения и плата среди всех участников, модель обеспечивает отличную производительность, имеет ряд дополнительных «фишек», которые понравятся энтузиастам.

 

Но и стоимость у решений ASUS ROG Strix довольно высокая. Но в данном случае ASUS ROG Strix GeForce GTX 1660 Ti OC edition совсем не выделяется на фоне, например, MSI GeForce GTX 1660 Ti GAMING X 6G.

 

Оценка ASUS ROG Strix GeForce GTX 1660 Ti OC edition (ROG-STRIX-GTX1660TI-O6G-GAMING)

+ отличная система охлаждения

+ отключение вентиляторов при низкой нагрузке

+ значительно повышенные частоты GPU

+ двойной BIOS

+ контакты для подключения RGB светодиодных лент и вентиляторов корпуса

— довольно высокая стоимость

— большие габариты

 

MSI GeForce GTX 1660 Ti GAMING X 6G

 

MSI GeForce GTX 1660 Ti GAMING X 6G

 

Как и в случае с ASUS ROG Strix GeForce GTX 1660 Ti OC edition данная видеокарта MSI GeForce GTX 1660 Ti GAMING X 6G является самой продвинутой во всей линейке моделей на базе GTX 1660 Ti у MSI.

 

Характеристики MSI GeForce GTX 1660 Ti GAMING X 6G (данные приложения GPU-Z)

 

Значение Boost-частоты GPU является самым высоким в тесте. А память работает на за рефренных 12 000 МГц.

 

В результате видеокарта находится среди лидеров по производительности. Если говорить о моделях на базе GTX 1660 Ti, то ASUS ROG Strix GeForce GTX 1660 Ti OC edition оказалась все же мизерно быстрее. Впрочем, такую разницу без специальных тестов точно не заметишь.

 

 

Для видеокарт нового поколения MSI кардинально изменила дизайн серии MSI GAMING. Акцент на красном цвете больше не делается и это связано, вероятно, с использованием не одноцветной красной, а RGB-подстветки RGB Mystic Light.

 

 

И надо сказать, что данная подсветка очень впечатляет. По продвинутости светоэффектов данная модель превосходит ASUS ROG Strix GeForce GTX 1660 Ti OC edition. В работе карта может переливаться красками, огоньки могут бегать по замысловатым траекториям, мерцать в режиме стробоскопа и т. д.

 

MSI GeForce GTX 1660 Ti GAMING X 6G довольно габаритная, но все в разумных пределах. На материнской плате устройство займет два слота расширения.

 

Система охлаждения продвинутая. Тепловые трубки проходят через радиатор, который обдувается двумя крупными вентиляторами с лопастями особой конструкции.

 

Мониторинг работы MSI GeForce GTX 1660 Ti GAMING X 6G в приложении MSI Afterburner

 

По эффективности охлаждения MSI GeForce GTX 1660 Ti GAMING X 6G очень хороша. Нет претензий у нас и к шумности. Но, если сравнивать с ASUS ROG Strix GeForce GTX 1660 Ti OC edition, то и температура GPU получается немного более высокой (65 °C), и обороты вращения вентиляторов при этом чуть больше (1500 об./мин.).

 

В вентиляторах чередуются лопасти с отличающимся дизайном (технология TORX FAN 3.0)

 

Питание GPU — 4-фазное. Возможность увеличить предел энергопотребления при разгоне есть, но он не очень большей (107%).

 

Фирменное ПО MSI

 

 

Видеокарты MSI GeForce GTX 1660 Ti GAMING X 6G и ASUS ROG Strix GeForce GTX 1660 Ti OC edition является самыми продвинутыми в тесте.

 

При близкой стоимости (на момент публикации) они имеют примерно одинаковый уровень производительности. На стороне ASUS ROG Strix GeForce GTX 1660 Ti OC edition несколько более продвинутая плата и чуть лучшие результаты работы системы охлаждения. А подсветка интереснее у MSI.

 

Оценка MSI GeForce GTX 1660 Ti GAMING X 6G:

+ хорошая система охлаждения

+ отключение вентиляторов при низкой нагрузке

+ значительно повышенные частоты GPU

+ продвинутая система RGB-подсветки

— довольно высокая стоимость

 

Gigabyte GeForce GTX 1660 Ti WINDFORCE OC 6G (GV-N166TWF2OC-6GD)

 

Gigabyte GeForce GTX 1660 Ti WINDFORCE OC 6G (GV-N166TWF2OC-6GD)

 

 

Пластиковая задняя панель, отсутствие подсветки сразу дает понять, что Gigabyte GeForce GTX 1660 Ti WINDFORCE OC 6G не такая крутая, как ASUS ROG Strix GeForce GTX 1660 Ti OC edition или MSI GeForce GTX 1660 Ti GAMING X 6G.

 

 

Но при более тесном знакомстве обнаруживаешь, что по важным параметрам она вполне способна составить конкуренцию самым продвинутым моделям теста.

 

Характеристики Gigabyte GeForce GTX 1660 Ti (данные приложения GPU-Z)

 

Видеокарта имеет довольно высокий заводской разгон. Boost-частота GPU составляет 1845 МГц. Частота памяти, как у всех других участников теста на базе GTX 1660 Ti соответствует референсной.

 

Если не «рассматривать под увеличительным стеклом» доли процентов, то Gigabyte GeForce GTX 1660 Ti WINDFORCE OC 6G (GV-N166TWF2OC-6GD) по производительности находится на уровне с лидерами.

 

А что с охлаждением?

 

Несколько смутило, что пластиковый кожух системы охлаждения довольно сильно выступает за пределы платы по длине. Устройство вполне можно было сделать на несколько сантиметров короче.

 

Тепловые трубки СО напрямую контактируют с поверхностью GPU

Обратите внимание, что пластиковый кожух СО, накрывающий плату, значительно длинней самой платы

 

Радиатор СО выглядит очень внушительно. Заявляется использование особых тепловых трубок с композитными материалами. Радиатор обдувают большие 100-миллиметровые вентиляторы. Gigabyte продолжает использовать схему при которой вентиляторы вращаются в разных направления. Указывается, что это снижает турбулентность в зоне между вентиляторами, что способствует более оптимальному отводу тепла.

 

Мониторинг работы Gigabyte GeForce GTX 1660 Ti в приложении MSI Afterburner

 

В нашем тесте температура GPU дошла до отметки 63 °C. Обороты вентилятора составили 1650 об/мин. Очень приличный результат. Получается, что по эффективности охлаждения модель находится примерно на том же уровне, что и MSI GeForce GTX 1660 Ti GAMING X 6G.

 

Автоматическая остановка вентиляторов при низкой температуре графического процессора тут также присутствует.

 

Функциональность фирменного ПО напоминает MSI Afterburner, но возможностей, в целом, — меньше

 

Питание GPU 4-фазное, но, что любопытно — доступный для увеличения предел энергопотребления (до 123%) даже выше, чем у очень мощной ASUS ROG Strix GeForce GTX 1660 Ti OC edition.

 

При сравнимом уровне производительности с мощными ASUS и MSI, эффективной системе охлаждения видеокарта Gigabyte GeForce GTX 1660 Ti WINDFORCE OC 6G оказалась заметно доступнее по цене.

 

Это очень интересный вариант для тех, кто может пожертвовать отсутствием подсветки, но хочет получить высокую производительность без особых переплат.

 

Оценка Gigabyte GeForce GTX 1660 Ti WINDFORCE OC 6G (GV-N166TWF2OC-6GD):

+ хорошая система охлаждения

+ отключение вентиляторов при низкой нагрузке

+ значительно повышенные частоты GPU

+ неплохой баланс возможностей и стоимости

— нет подсветки

— пластиковый кожух заметно длиннее печатной платы

 

Inno3D GeForce GTX 1660 Ti Twin X2 (N166T2-06D6-1710VA15)

 

Inno3D GeForce GTX 1660 Ti Twin X2 (N166T2-06D6-1710VA15)

 

 

В то время, как некоторые производители выкатили уже целые линейки решений на базе GTX 1660 Ti, у Inno3D такая модель пока только одна.

 

На фоне других участников теста Inno3D GeForce GTX 1660 Ti Twin X2 выделяется внешне. Это самая компактная видеокарта.

 

Inno3D GeForce GTX 1660 Ti Twin X2 (слева) по сравнению с другими участниками теста)

 

Дизайн без особых изысков, но производитель все же решил освежить внешность раскрашенной задней пластиной, которая к слову, выполнена из металла.

 

 

Современные видеокарты зачастую имеют «затонированную» панель разъемов. В даннов случае производитель оставил обычный серебристый цвет

 

Характеристики Inno3D GeForce GTX 1660 Ti Twin X2 (данные приложения GPU-Z)

 

Рабочие частоты у Inno3D GeForce GTX 1660 Ti Twin X2 (N166T2-06D6-1710VA15) стандартные. Это отобразилось на результатах производительности. Графическая карта Inno3D закономерно отстала от видеокарт ASUS, MSI, Gigabyte, которые имеют более высокие частоты GPU.

 

Но такое отставание измеряется буквально единицами процентов.

 

 

 

С компактными размерами организовать эффективное охлаждение сложнее. Вентиляторы тут не такие большие, а вот радиатор оказался непростым. Он довольно обширно переплетен тепловыми трубками.

 

Мониторинг работы Inno3D GeForce GTX 1660 Ti Twin X2 в приложении MSI Afterburner

 

Зафиксированное значение максимальной температуры GPU в 66 °С является хорошим показателем. Но для его обеспечения вентиляторы раскрутились до 1900 об./мин, что заметно больше, чем у других участников. Видеокарта не шумная, но работает громче других участников данного теста видеокарт на базе NVIDIA GeForce GTX 1660 Ti.

 

Приятно, что разработчики не оставили модель без системы автоматического отключения вентиляторов. Оно происходит, когда температура GPU опускается ниже отметки в 41 °C.

 

Увеличение предела энергопотребления тут недоступно. Изначальное значение Power Limit 100% и является максимальным.

 

 

Приятным бонусом являются лицензионные ключи для тестовых приложений 3DMark и VRMark в комплекте.

 

Фирменное ПО — это вариация на тему небезызвестного MSI Afterburner, но с более усеченной функциональностью

 

Inno3D GeForce GTX 1660 Ti Twin X2 (N166T2-06D6-1710VA15) является самой доступной по цене видеокартой на базе GTX 1660 Ti в тесте.

 

Это неплохое устройство, но Gigabyte GeForce GTX 1660 Ti WINDFORCE OC 6G стоит ненамного дороже, но обладает и более высокими частотами GPU, и более эффективной СО.

 

Тут надо дополнительно отметить, что Inno3D GeForce GTX 1660 Ti Twin X2 только поступает в магазины. Указанная цена — тот уровень, который ожидается при старте продаж.

 

Более существенная разница в стоимости по сравнению с указанной Gigabyte сможет повысить привлекательность модели для пользователей.

 

Оценка Inno3D GeForce GTX 1660 Ti Twin X2 (N166T2-06D6-1710VA15):

+ компактные размеры

+ самая доступная по цене модель в тесте

+ отключение вентиляторов при низкой нагрузке

+ лицензионные ключи для тестовых приложений 3DMark и VRMark в комплекте

— референсные частоты

— система охлаждения несколько уступает другим участникам теста по эффективности

 

Как мы тестировали видеокарты

 

Видеокарты работали с использованием изначальных настроек драйверов, оптимизированные игровые профили не применялись.

 

Видеокарты тестировались без разгона и без использования фирменных профилей (OC, Gaming, Silence и т. д.), которые иногда доступны при установке фирменного программного обеспечения.

 

Тестируемые видеокарты на базе NVIDIA GeForce GTX 1660 Ti мы сравнивали с видеоадаптером прошлого поколения на базе GTX 1070 в роли в роли которого выступила MSI GeForce GTX 1070 GAMING X 8G. Обратите внимание, что используемая модель GTX 1070 работала на своих родных частотах, которые выше референсных частот GTX 1070.

 

В качестве тестовых приложений для определения производительности видеокарт мы использовали современные игры с поддержкой DirectX 11 и DirectX 12, которые имеют встроенные бенчмарки. Также в программу вошли популярные синтетические тесты 3DMark.

 

В каждой игре применялись максимальные или близкие к максимальным настройки графики. В играх мы использовали разрешение 1920×1080 и 2560×1440 пикс. В 3DMark 11 видеокарты тестировались с предустановкой Extreme, а в 3DMark (2013) использовались тесты Fire Strike Extreme, Fire Strike Ultra и DirectX 12-тест Time Spy.

 

Отслеживание максимальной температуры GPU и энергопотребления системы (без монитора) производилось в игре Metro: Last Light. Именно в этой игре видеокарты, по наблюдениям, нагревались наиболее интенсивно, и происходило максимальное энергопотребление.

 

Сама система эксплуатировалась вне корпуса ПК (открытый стенд) при температуре в помещении около 21 °C. Уровень шума, создаваемый работой систем охлаждения видеокарт, оценивался субъективно.

 

Итоговая оценка в категории «Производительность» определялась на базе всех тестов с равнозначным вкладом каждого теста. При этом если говорить об играх, для уменьшения влияния зависимости от процессора при подсчете общей производительности (категория «Производительность») учитывались только результаты с более высоким разрешением 2560×1440 пикс.

 

Результаты с разрешением 1920×1080 пикс. приведены для ознакомления.

 

Гистограммы нормированы в процентах с сортировкой моделей по результатам тестов. Конкретные результаты в виде баллов и FPS также указаны.

 

Стоимость видеокарт указана на базе данных крупных интернет-магазинов (на момент публикации).

 

Конфигурация тестовой платформы:

Процессор: Intel Core i7-3770K, разогнанный до 4,4 МГц

Материнская плата: Biostar Hi-Fi Z77X

Объем оперативной памяти: 4×4 ГБ DDR3 1600

Накопители: SSD Adata S511 120 ГБ (система), HDD 1 ТБ

Операционная система: Windows 10 Pro 64 бит

Монитор: Philips 272P7VPTKEB

Используемый драйвер NVIDIA для всех видеокарт: GeForce 419.35

 

Результаты тестов

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Выводы

 

Судя по результатам тестов, производительность видеокарт NVIDIA GeForce GTX 1660 Ti находится чуть ниже NVIDIA GeForce GTX 1070. А это очень приличный уровень!

 

Видеокарты способны обеспечить комфортный уровень FPS практически в любых самых требовательных играх с разрешением Full HD. Используя более высокое разрешение 2560×1440 пикс. где-то, возможно уже не получится выставить максимальные настройки.

 

Общая производительность посчитана на базе результатов с разрешением 2560×1440 пикс., если говорить об играх. В более низком разрешении Full HD (1920×1080 пикс.) модели GTX 1660 Ti подтянутся к GTX 1070 еще плотнее.

 

К сожалению у нас не оказалось под рукой GTX 1060 6 ГБ для сравнения. Да 50%-процентный выигрыш мало где можно будет увидеть. Но 20–40-процентный (в зависимости от прилежения) рост в новых GTX 1660 Ti вполне можно ожидать.

 

На старте продаж видеокарт NVIDIA нового поколения, а это были высокопроизводительные RTX 2080 Ti, RTX 2080, RTX 2070, многие критиковали за очень высокий уровень цен. Этим новинкам было сложно конкурировать с решениями прошлого поколения GTX 10XX.

 

А вот лишившиеся «обвески» в виде тензорных и RT-ядер видеокарты более доступной серии GTX 1660 Ti оказались очень привлекательны по соотношению производительности и стоимости. И в этом плане неплохо смотрятся на фоне уходящих моделей GTX 10XX.

 

Выбирая модель нового поколения вы также получаете и более высокую энергоэффективность, хотя от нового 12-нанометрового техпроцесса в сочетании с архитектурой Turing можно было ожидать и большего.

 

Является ли GTX 1660 Ti хорошей заменой для владельцев GTX 1060? Пожалуй разница между ними будет не настолько значимой для многих. А вот для тех, кто засиделся на видяхах девятой серии GTX 9XX, или для владельцев более слабых 1050 Ti переход на GTX 1660 Ti принесет большой скачок скорости.

 

 

Что касается участников теста, то в целом, как наиболее продвинутые модели выделяются ASUS ROG Strix GeForce GTX 1660 Ti OC edition и MSI GeForce GTX 1660 Ti GAMING X 6G. Причем, при очень близкой стоимости (на момент публикации) ASUS отличается более мощной платой и системой охлаждения, а вот подсветка интереснее у MSI.

 

Очень неплохо проявила себя Gigabyte GeForce GTX 1660 Ti WINDFORCE OC 6G. Тут нет подсветки, задняя пластина пластиковая, зато данная модель, можно сказать, не уступает ASUS ROG Strix GeForce GTX 1660 Ti OC edition и MSI GeForce GTX 1660 Ti GAMING X 6G по производительности и имеет весьма привлекательную стоимость.

 

Inno3D GeForce GTX 1660 Ti Twin X2 оказалась несколько слабее других участников по скорости и эффективности СО, но это, одновременно, и самая доступная по цене видеокарта, среди всех тестируемых моделей на базе GTX 1660 Ti.

 

 

Смотрите также:

Обзор и сравнение видеокарт на базе NVIDIA RTX 2070 от ASUS, Gigabyte, Inno3D и MSI

Обзор видеокарт на базе NVIDIA GeForce GTX 1070 Ti от ASUS, Gigabyte и MSI. Заполняя ниши

evo
Инженер тестовой лаборатории

  


Читайте также

Проверьте производительность процессора, графического процессора, видеокарты и жесткого диска вашего Mac

Ваш Mac уже не работает так хорошо, как раньше?

Иногда проблема очевидна — если ваш Mac постоянно жалуется на нехватку места на диске, тогда совершенно ясно, что вызывает замедление работы вашего Mac! Однако причина падения производительности не всегда настолько очевидна, и именно здесь на помощь приходит бенчмаркинг.

В этой статье я покажу вам, как измерить производительность процессора, графического процессора и жесткого диска вашего Mac, используя спектр приложений.

Что такое сравнительный анализ?

Бенчмаркинг дает вам представление об отдельных компонентах, составляющих ваш Mac, таких как его процессор и видеокарта, путем сравнения их производительности с производительностью других компьютеров Mac. Сам по себе сравнительный анализ не улучшит ваш Mac, но поможет вам определить слабые места в системе, чтобы вы точно знали, что делать, чтобы повысить ее производительность.

Сравнивая производительность вашего Mac с производительностью других аналогичных компьютеров Mac, вы также можете оценить, насколько серьезна проблема на самом деле.Если бенчмаркинг показывает, что ваш жесткий диск работает с немного медленнее, чем ожидалось, на , то вернуть его на полную скорость может быть так же просто, как освободить диск от хлама. Однако, если ваш диск значительно медленнее, чем , решением может быть что-то более радикальное, например, выплескивание на SSD (твердотельный накопитель). Тестирование
также может помочь вам совершать более разумные покупки. Например, перед предварительным заказом самой ожидаемой игры года вы можете проверить, действительно ли ваш Mac справляется с графикой игры.Это избавит вас от смущения, связанного с тем, что вам придется объяснять службе поддержки Amazon, что на самом деле ваш компьютер недостаточно мощный, поэтому вам нужно вернуть игру, которую вы так долго ждали!

Бенчмаркинг также может быть полезен для более дорогих покупок, особенно , когда вас соблазняет новый Mac! Многие приложения для тестирования производительности возвращают общую оценку для вашего процессора, графического процессора и других компонентов, поэтому вы можете сравнить эту оценку со средними оценками для других моделей Mac.Это дает вам представление о том, каких улучшений производительности вы можете ожидать, если вы с по купите Mac, который вы искали, в Apple Store.

Нет недостатка в приложениях для тестирования, доступных для macOS, хотя большинство из них анализируют только одну часть системы, поэтому обычно вам нужно загрузить несколько приложений, если вы хотите тщательно протестировать свой Mac.

В этой статье я рассказываю о четырех приложениях, которые вы можете использовать для тестирования всех основных компонентов вашего Mac.Поскольку вы обычно используете несколько приложений для тестирования производительности, все приложения, которые мы рассматриваем, либо полностью бесплатны, либо предлагают бесплатную пробную версию, поэтому вы можете протестировать Mac без необходимости использовать для нескольких приложений.

Тестирование CPU и GPU с помощью Geekbench 4

Вы можете скачать Geekbench 4 бесплатно, хотя, если вы все же используете бесплатную версию, Geekbench требует активного подключения к Интернету. Бесплатная пробная версия Geekbench также автоматически загружает все ваши результаты тестирования в браузер Geekbench.

Чтобы начать работу с пробной версией Geekbench:

  • Загрузите Geekbench 4.
  • Запустите только что загруженный файл.
  • Прочтите лицензионное соглашение с конечным пользователем и, если вы согласны продолжить, нажмите «Принимаю».
  • Если вы используете пробную версию, Geekbench отобразит отказ от ответственности. Прочтите этот отказ от ответственности и, если вы готовы продолжить, нажмите «Позже».

Теперь вы должны попасть в основную консоль Geekbench.

Эта консоль разделена на четыре раздела: CPU, Compute, Device и Help, но мы сосредоточимся на CPU и Compute, поскольку именно в этих разделах вы можете протестировать CPU и GPU вашего Mac соответственно.

1. Тестирование вашего CPU

В разделе «CPU» Geekbench вы можете измерить производительность вашего центрального процессора , который отвечает за выполнение большинства инструкций вашего оборудования и программного обеспечения.

Geekbench измеряет, насколько хорошо ваш процессор выполняет повседневные задачи, выполняя ряд тестов, которые минимизируют повседневные задачи, выполняемые вашим процессором.

Для получения наиболее точных результатов сравнительные тесты всегда должны иметь доступ к 100% ваших системных ресурсов, поэтому рекомендуется закрыть все приложения, кроме Geekbench, и отойти от компьютера до завершения теста. В большинстве случаев проверка ЦП занимает всего несколько минут, но в зависимости от скорости вашего ЦП это может занять до 20 минут. На всякий случай вы можете начать этот тест непосредственно перед тем, как отправиться в обеденный перерыв!

Убедившись, что Geekbench — единственное приложение, работающее в настоящее время, нажмите кнопку «Run CPU Benchmark».Geekbench выполнит тест, а затем отобразит результаты в браузере по умолчанию. Здесь много информации, но наиболее важные цифры:

  • Оценка одноядерного процессора. Это показывает, насколько быстро ваш Mac работает, когда все обрабатывает одно ядро ​​обработки.
  • Многоядерная оценка. Вот насколько хорошо работает ваш Mac, когда на него оказывается такое давление, что ему приходится прибегать к помощи нескольких процессорных ядер. Думайте об этом, как о том, что ваша система работает на пределе возможностей!

Чем выше оценка, тем лучше, но без какого-либо контекста невозможно определить, насколько высок ваш балл на самом деле.Поскольку сами по себе эти числа не так много значат, следующим шагом будет переход к браузеру Geekbench и сравнение ваших результатов с другими компьютерами Mac.

В браузере Geekbench вы можете искать все отчеты, созданные для конкретной модели Mac. Обычно первым шагом является поиск вашей модели, чтобы вы могли проверить, получаете ли вы производительность, которую ожидаете от такого типа Mac. Также может быть интересно посмотреть, как ваш Mac сравнивается с различными моделями, особенно если ваша мотивация для сравнительного анализа заключается в том, чтобы увидеть, как ваш текущий компьютер складывается с тем блестящим новым Mac, который вы заметили в магазине Apple!

В дополнение к просмотру отдельных отчетов, собранных пользователями Geekbench, вы можете просматривать агрегированные результаты для различных моделей в разделе Geekbench Mac Benchmark.Просматривая эти агрегированные результаты, просто имейте в виду, что результаты для отдельных устройств имеют тенденцию незначительно отличаться от среднего, согласно документации Geekbench.

Если браузер Geekbench обнаруживает, что ваши результаты значительно ниже, чем они должны быть, подумайте, могли ли быть открыты какие-либо другие приложения, когда вы запускали тест, поскольку это может повлиять на ваши результаты.

Если вы подозреваете, что это могло быть так, убедитесь, что Geekbench действительно единственное запущенное приложение, а затем повторите тест.

Чтобы убедиться, что никакие приложения не скрываются в фоновом режиме, можно проверить меню MacOS «Принудительный выход», выбрав логотип «Apple» в строке меню Mac, а затем нажав «Принудительный выход». Чтобы вникнуть немного глубже, вы сможете увидеть все процессы, которые в настоящее время выполняются на вашем Mac, в Activity Monitor («Приложения> Утилиты> Монитор активности»).

2. Тестирование вашего графического процессора

Compute Benchmark измеряет производительность вашего графического процессора, который представляет собой чип на вашей видеокарте или интегрированный в ЦП, который выполняет вычисления, необходимые для рендеринга и отображения изображений.

Чтобы проверить свой графический процессор:

  • Убедитесь, что Geekbench — единственное приложение, работающее в настоящее время на вашем Mac.
  • Выберите «Compute» в левом меню Geekbench.
  • Нажмите кнопку «Run Compute Benchmark».

После завершения теста Geekbench отобразит его результаты в новой вкладке в браузере Mac по умолчанию. Получив результаты, вы можете сравнить их с другими компьютерами Mac в разделе «Результаты вычислений» браузера Geekbench.

Тестирование видеокарты

Cinebench — это приложение, которое позволяет вам протестировать видеокарту вашего Mac.Видеокарта — это аппаратное обеспечение, которое в конечном итоге отвечает за вывод изображения, которое вы видите на своем мониторе. Хотя люди часто используют термины «графический процессор» и «графическая карта» как синонимы, графический процессор является компонентом графической карты.

Cinebench проверяет вашу видеокарту, отображая сложную трехмерную сцену автомобильной погони на слабо освещенной улице, которая требует, чтобы ваш Mac одновременно отображал ряд специальных эффектов, текстур и почти 1 миллион полигонов.

Чтобы проверить графическую вычислительную мощность вашего Mac:

  • Зайдите на веб-сайт MAXON и загрузите Cinebench для Mac.
  • После загрузки файла установите его.
  • Новое окно должно открыться автоматически, содержащее ряд файлов и папок. Найдите приложение «Cinebench OSX» и запустите его.
  • Прочтите лицензионное соглашение и, если вы согласны продолжить, нажмите «Принять».
  • Нажмите кнопку «Выполнить» рядом с «OpenGL».
  • Cinebench теперь воспроизведет видеоклип.
  • После завершения теста ваши результаты будут отображаться рядом с кнопкой «OpenGL: Run». Результаты выражаются в кадрах в секунду (FPS), поэтому чем выше число, тем быстрее ваша видеокарта.

Вы также можете использовать Cinebench для тестирования вашего процессора, поэтому, если вы хотите получить второе мнение об отчетах Geekbench о процессоре, нажмите кнопку «CPU: Run». Cinebench визуализирует сложное изображение, полное теней, отражений и других визуальных эффектов, и отображает оценку рядом с кнопкой «CPU: Run».Чем выше число, тем быстрее ваш процессор.

Проверьте свой жесткий диск и твердотельный накопитель (SSD)

Вы можете сравнить скорость чтения / записи жесткого или твердотельного накопителя с помощью Blackmagic Disk Speed ​​Test. Это приложение было разработано, чтобы помочь видеоредакторам проверить, могут ли их жесткие диски обрабатывать и воспроизводить различные видеоформаты, но оно также может быть полезно для оценки того, насколько хорошо ваш Mac справляется с требовательными приложениями в целом.

Чтобы проверить скорость вашего диска:

  • Загрузите Blackmagic Disk Speed ​​Test из App Store.
  • Запустите приложение.

  • Для получения наиболее точных результатов убедитесь, что на вашем Mac не запущены другие приложения. Вы можете окунуться в меню «Apple> Force Quit…» или в Activity Monitor, просто чтобы убедиться, что вы действительно все закрыли!
  • Если у вас один жесткий диск, вам просто нужно нажать кнопку «Запуск теста скорости». Если у вас несколько жестких дисков, нажмите маленький значок «Cog», а затем «Select Target Device…» и выберите диск, который вы хотите протестировать.
  • Нажмите кнопку «Запуск теста скорости».

После завершения теста Blackmagic отобразит:

  • Скорость чтения. Это скорость загрузки приложений.
  • Скорость записи. Вот как быстро данные могут быть записаны на ваш жесткий диск.

Если у вас особенно медленный жесткий диск, возможно, вам стоит подумать о приобретении SSD.

Мониторинг производительности в реальном времени с помощью меню iStat

Все приложения, которые мы рассмотрели до сих пор, дали результат static , но производительность не статична — всегда бывают дни, когда ваш Mac работает медленнее, чем другие.

iStat Menus добавляет значок в строку меню Mac, который позволяет отслеживать изменение показателей производительности процессора, памяти, твердотельного накопителя, сетевого соединения и других показателей со временем.

Предоставляя легкий доступ к этой статистике в реальном времени, вы можете настроить, как вы используете свой Mac, чтобы увеличить пометку Mac или даже избежать проблем с производительностью в первую очередь. Например, если вы заметили, что загрузка ЦП растет, вы можете начать закрывать приложения до того, как это окажет заметное влияние на производительность.

iStat Menus стоит 9,99 долларов в месяц, но доступна бесплатная 7-дневная пробная версия, поэтому вы можете попробовать это приложение, не открывая кошелек.

  • Перейдите на сайт Setapp и загрузите бесплатную версию iStat Menus.
  • Установите и запустите приложение iStats.
  • Меню iStat теперь загружают дополнительный контент. По завершении нажмите «Запуск».
  • Нажмите синюю кнопку «Открыть», а затем «Установить» и «Помощник по установке».

Это добавит несколько значков в строку меню вашего Mac:

Слева направо. -хорошо, эти значки предоставляют обширную информацию о вашем Mac:

  • CPU и GPU.
  • Загрузка памяти.
  • SSD.
  • Сеть.
  • Датчики, такие как датчики вентилятора и аккумулятора.
  • Аккумулятор.

В каждом меню вы найдете тонны информации, поэтому их стоит изучить подробно. Вы также можете просмотреть дополнительные данные, наведя курсор на различные полосы и графику, которые появляются в этих раскрывающихся меню.

Перед тем, как отправиться в путь

Проведя более 20 лет работы с Mac, как старыми, так и новыми, есть инструмент, который, я думаю, будет полезен каждому владельцу Mac, который испытывает проблемы с производительностью.

CleanMyMac — это универсальное приложение для очистки Mac с наивысшим рейтингом. Оно может быстро диагностировать и решить множество распространенных (но иногда утомительных для исправления) проблем одним нажатием кнопки. Это также просто помогает решить многие проблемы, описанные в разделе ускорения на этом сайте, поэтому загрузите CleanMyMac, чтобы вернуть свой Mac в норму уже сегодня.


Призыв к тестированию: Ubuntu с графическими картами NVIDIA — Desktop

У вас есть видеокарта nVIDIA ? Вы хотите, чтобы пользователи могли беспрепятственно работать, если они решат использовать проприетарные драйверы или драйверы с открытым исходным кодом?

Мы ищем преданных добровольцев для тестирования nVIDIA с проприетарными драйверами
с открытым исходным кодом.Цель этого тестирования — выявить регрессии на ранних этапах цикла и исправить ошибки до того, как они достигнут основной аудитории. Это для Ubuntu 18.04 (Bionic) или Ubuntu 18.10 (Cosmic) , в ноутбуке или ПК .

Если вы хотите быть частью команды, вам потребуется:

  1. Компьютер с видеокартой nVIDIA
  2. Запасной раздел в этой системе (только если вы хотите запустить тест установки)
    • Если у вас нет запасного раздела, вы можете легко его создать.
  3. Подключение к Интернету

Цикл начинается 29.08.2018 и заканчивается через две недели, 12.09.2018

Позже В этом посте вы найдете инструкции по настройке. Кроме того, для получения подробных инструкций по тестированию и того, как работает трекер QA, вы можете посетить:
QA Tracker details
и следовать подробным инструкциям.

Спасибо за помощь в улучшении Ubuntu!

== Инструкции по настройке ==

  1. Если вы хотите протестировать процесс установки, мы предлагаем вам иметь запасной раздел, потому что программа включает в себя новые установки Ubuntu.Если у вас нет запасного раздела, вы можете создать его, выполнив следующие действия: Инструкции по изменению размера раздела. Если вы не хотите тестировать процесс установки, вам следует запустить тест, который включает загрузку живого сеанса.
  2. Я знаю, что у некоторых из вас есть несколько систем, но наш трекер имеет некоторые ограничения, которые не позволяют предоставлять два результата для одной и той же учетной записи. Чтобы не создавать слишком много проблем, просто выберите одну из своих систем и ВСЕГДА тестируйте с этой системой.
  3. У вас должна быть учетная запись на Launchpad.Мы собираемся использовать его для генерации данных (он будет общедоступным). Если у вас нет учетной записи на панели запуска, выполните следующие действия:
  4. Перейти на Launchpad.
  5. Нажмите «Войти / зарегистрироваться»
  6. Введите свой адрес электронной почты и выберите «У меня нет учетной записи Ubuntu One».
  7. Введите данные и подтвердите свою электронную почту.
  8. С учетными данными панели запуска вам необходимо войти в трекер: http://xorg.qa.ubuntu.com
  9. Закончив работу с трекером, добавьте себя в список участников на этой странице.
  10. Готово!

10 игр, которые максимально используют вашу видеокарту

Сейчас 2020 год, и графика видеоигр становится все лучше и лучше. Для компьютерных геймеров это означает идти в ногу с постоянно улучшающимися стандартами для машин, особенно когда речь идет о высокой частоте кадров в 4K и постоянно востребованной трассировке лучей. Итак, мы составили список игр, которые не только отлично смотрятся на консолях или ПК с низкими характеристиками, но и полностью ослепляют при максимальных настройках.

Обратите внимание, рейтинг здесь был выбран не на основе результатов обзора игр, а на основе огромного количества необработанной мощности видеокарты, необходимой для того, чтобы эти игры действительно сияли при максимальных настройках.С этой целью мы представляем 10 лучших игр, которые максимально используют возможности вашего высокопроизводительного игрового ПК.

Чтобы увидеть наш список, вы можете либо прокрутить страницу вниз, как обычно, либо просмотреть слайд-шоу ниже вместе с действительно красивыми скриншотами!

10 игр, которые максимально используют вашу видеокарту

10. Поле битвы 5

Рекомендуемое оборудование: совместимый с DirectX 11.1 графический процессор, 8 ГБ AMD Radeon RX 580/6 ГБ Nvidia GeForce GTX 1060

Известная своими огромными открытыми полями сражений, Battlefield V по-прежнему поражает воображение, и это два аспекта, которые в совокупности позволяют по-настоящему проверить возможности вашего ПК.Большие открытые пространства с высоким уровнем детализации в сочетании с разрушаемыми зданиями и большим количеством игроков станут настоящим испытанием для вашей установки. Когда в пространстве одновременно находится так много игроков, каждый из которых делает разные вещи, требуется много энергии, но выигрыш того стоит, когда все это соберется вместе.

9. Assassin’s Creed Odyssey

Рекомендуемое оборудование: AMD Radeon R9 290 или Nvidia GeForce GTX 970 (4 ГБ видеопамяти или больше с Shader Model 5.0) или лучше

Assassin’s Creed всегда дает нам большие красивые миры, что требует высоких системных требований.Odyssey дает нам не только потрясающие греческие пейзажи, где можно поиграть, но и великолепное изображение Средиземного моря для плавания. От мерцающих бронзовых и мраморных статуй Акрополя до дебрей Македонии и вулканических пляжей Анафи — Odyssey, работающая на максимальных настройках, — одна из самых красивых игр, доступных на ПК, хотя она также очень хорошо оптимизирована для недорогих игр!

Каждый IGN Обзор Assassin’s Creed

8. Wolfenstein: Youngblood

Рекомендуемое оборудование: Nvidia GTX 1060 6 ГБ (текущий доступный графический процессор RTX2060) или эквивалент AMD

Хотя переход от Wolfenstein 2: New Colossus к Youngblood не сильно повлиял на графику, недавний патч трассировки лучей, примененный к Youngblood, ставит его на шаг впереди своего предшественника.Будь то кристально чистые отражения от вашего пистолета, когда вы уничтожаете нацистов, или сверкающие лужи на раздираемых войной улицах, Youngblood никогда не перестает ослеплять. Соедините это с поистине захватывающими дух взрывами и пылающими огнями, и — с достаточно мощной картой — Wolfenstein: Youngblood — это зрелище, которое стоит созерцать.

7. Тень Расхитительницы гробниц

Рекомендуемое оборудование — Nvidia GTX 1060 6 ГБ или AMD Radeon RX 480, 8 ГБ

Shadow of the Tomb Raider — это самая красивая игра в серии, а ее темные места действительно максимально используют высококлассную установку — кстати, мы имеем в виду это буквально: посмотрите на эти световые эффекты! Да, недавнее добавление поддержки трассировки лучей делает и без того красивую игру еще лучше — просто берегитесь леопардов.

6. Forza Horizon 4

Рекомендуемое оборудование — Nvidia GTX 970 ИЛИ Nvidia GTX 1060 3 ГБ ИЛИ AMD R9 290x ИЛИ AMD RX 470

.

Гоночные игры не могут быть красивее Forza, и последняя игра из серии Horizon переносит эти автомобили в великолепный открытый мир Великобритании. Между сотнями искусно прорисованных автомобилей и сезонными изменениями, которые наступают в мире, Forza Horizon 4 подвергнет вашу видеокарту испытанию наилучшим образом.

5.Обитель зла 3

Рекомендуемое оборудование — Nvidia GTX 1060 или AMD Radeon RX 480

Resident Evil 3, когда-то считавшийся передовым в области игровой графики, снова лидирует с красивым римейком, который доводит машины до предела их возможностей. Жуткие улицы Раккун-Сити прошли долгий путь с 1999 года и теперь полностью реализованы в HD и 4K. Зомби и другие чудовища изображены с мучительными деталями, что делает их обоих невероятно страшными, но также стоит серьезно рассмотреть каждую деталь.Resident Evil прошла долгий путь за десятилетия, и Resident Evil 3 — потрясающее — и ужасающее — доказательство.

4. Doom Eternal

Рекомендуемое оборудование — Nvidia GeForce GTX 1080 8 ГБ, RTX 2060 6 ГБ или AMD Radeon RX Vega56 8 ГБ

Doom Eternal наконец-то здесь, и вы захотите проверить, обновлена ​​ли ваша видеокарта, чтобы получить лучший обзор ада возможны. Адская техно-окружающая среда прекрасно реализована, а быстрые и яростные действия, когда вы убиваете творчески разработанные демонические чудовища, не только отлично смотрятся в 4K — и даже могут достигать поразительной тысячи кадров в секунду на суперкомпьютерах высшего класса но он также оптимизирован для работы на старом оборудовании.

3. Контроль

Рекомендуемое оборудование — Nvidia GeForce GTX 1060, AMD Radeon RX 580 или лучше (RTX 2060 для трассировки лучей)

Control — это визуальное средство для ума, и, хотя его триповые трансформирующиеся коридоры отлично смотрятся на любой платформе, на мощный ПК — особенно с недавним обновлением поддержки трассировки лучей. Это одна из лучших демонстраций того, насколько хорошо может выглядеть трассировка лучей, будь то ее потрясающие декорации или когда вы просто изучаете залы The Oldest House, оформленные в стиле середины прошлого века.

2. Red Dead Redemption 2

Рекомендуемое оборудование — Nvidia GeForce GTX 1060 6 ГБ, AMD Radeon RX 480 4 ГБ

Red Dead Redemption 2 может быть одной из самых красивых игр своего поколения на любой платформе. лучше всего на ПК. Благодаря истинным возможностям 4K / 60, новым текстурам Ultra-HD и множеству других обновленных визуальных эффектов вам понадобится серьезная сборка, чтобы в полной мере использовать возможности порта для ПК, но мы уверены, что вы сочтете это стоящим усилий. Пард’нер.

1. Metro Exodus

Рекомендуемое оборудование — GeForce GTX 1070, GeForce RTX 2060 / AMD RX VEGA 56

Песчаный, грязный сериал Metro — это самый ресурсоемкий продукт в серии, и на то есть веские причины. Благодаря разнообразию локаций, от зимних городских пейзажей до зеленых лесов и сырых подземных туннелей, его мрачный постапокалиптический взгляд на Россию и Восточную Европу никогда не выглядел лучше. Metro Exodus теперь также поддерживает трассировку лучей, что делает игру еще более красивой. — особенно в мерцающих огнях подземных участков.Возможно, это самая мучительная глава в пути Артема, но и самая красивая. Заинтересованы в других топ-10? Посмотрите лучших ролевых игр за последние 15 лет или лучших боссов Resident Evil всех времен!

Как отслеживать производительность графического процессора в Fall Creators Update

Начиная с Windows 10 Fall Creators Update, в диспетчере задач появилась возможность отслеживать данные о производительности графического процессора (GPU), чтобы лучше понять, как эти ресурсы используются, теперь, когда графические процессоры становятся все более важными в вычислениях.

Это означает, что каждый графический процессор, настроенный на вашем компьютере, теперь будет отображаться на вкладке «Производительность», отображающей использование ресурсов в реальном времени. Кроме того, во вкладке «Процессы» теперь вы можете видеть, какие процессы активно обращаются к графическому процессору, а также аналитику видеопамяти на вкладке «Подробности».

В этом руководстве по Windows 10 мы расскажем, как проверить и начать отслеживать данные о производительности графического процессора с помощью диспетчера задач.

VPN-предложения: пожизненная лицензия за 16 долларов, ежемесячные планы за 1 доллар и более

Как проверить, отображается ли производительность графического процессора на вашем ПК

Хотя диспетчер задач не предъявляет никаких особых требований к мониторингу системных ресурсов, таких как процессор, память, хранилище и сетевые адаптеры, для предоставления информации о графическом процессоре все немного иначе.

В Windows 10 информация о графическом процессоре доступна в диспетчере задач с помощью модели драйвера дисплея Windows (WDDM), которая представляет собой особую архитектуру драйвера, которую видеокарты должны поддерживать для отображения рабочего стола и приложений на экране.

Внутри WDDM есть графическое ядро, которое включает в себя планировщик (VidSch) и диспетчер видеопамяти (VidMm), которые отвечают за принятие решений об использовании ресурсов графического процессора.

Диспетчер задач

собирает данные о производительности графического процессора непосредственно из планировщика графического ядра и диспетчера видеопамяти как для встроенных, так и для выделенных графических процессоров, но для работы с версией 2.0 или более поздней версии WDDM.

Чтобы проверить, поддерживает ли ваше устройство данные о производительности графического процессора в диспетчере задач, выполните следующие действия:

  1. Используйте сочетание клавиш Windows + R , чтобы открыть команду Выполнить .
  2. Введите следующую команду, чтобы открыть средство диагностики DirectX, и нажмите Введите :

    dxdiag.exe

  3. Щелкните вкладку Display .
  4. Справа в разделе «Драйверы» проверьте информацию о драйвере , модель .

Если модель драйвера читает WDDM 2.0 или новее, то диспетчер задач должен перечислить все ваши графические процессоры на вкладке «Производительность».

Как отслеживать производительность графического процессора с помощью диспетчера задач

Чтобы отслеживать данные о производительности графического процессора с помощью диспетчера задач, просто щелкните правой кнопкой мыши панель задач и выберите диспетчер задач . Если вы находитесь в компактном режиме, нажмите кнопку Подробнее , а затем щелкните вкладку Performance .

Совет: Использование старого сочетания клавиш Ctrl + Shift + Esc позволит быстрее перейти в диспетчер задач.

Вкладка «Производительность»

Если ваш компьютер поддерживает WDDM версии 2.0 или новее, на вкладке «Производительность» ваш графический процессор будет указан на левой панели. В случае, если у вас несколько графических процессоров, каждый из них будет назван с использованием номера, соответствующего его физическому расположению. Например, GPU 0, GPU 1, GPU 2 и т. Д.

Windows 10 также включает поддержку соединения нескольких графических процессоров с помощью Nvidia SLI и AMD Crossfire.При обнаружении одной из этих конфигураций на вкладке «Производительность» каждой ссылке будет присвоено имя (например, Ссылка 0, Ссылка 1 и т. Д.), И вы сможете увидеть и проверить каждый графический процессор в этой ссылке.

графический процессор

На странице видеокарты вы найдете агрегированные данные о производительности, в основном разделенные на два раздела.

Раздел GPU включает текущую информацию о ядрах графического процессора, а не об отдельных ядрах графического процессора. (Стоит определить, что движок графического процессора состоит из множества ядер графического процессора.)

Диспетчер задач

по умолчанию отображает четыре наиболее интересных ядра GPU, которые обычно могут включать 3D , Copy , Video Decode и Video Processing , но вы можете изменить эти представления, щелкнув имя и подборка другого двигателя.

Вы даже можете изменить графическое представление для одного механизма, щелкнув правой кнопкой мыши в любом месте раздела и выбрав опцию Single engine из меню.

Память

Сразу после графиков движков вы найдете использование видеопамяти и сводку.

Диспетчер задач показывает два типа видеопамяти, включая выделенную и общую память.

Выделенная память — это память, которая будет использоваться только видеокартой. Обычно это ваша видеопамять на дискретных картах или объем памяти, который компьютер настроен для явного резервирования для встроенной видеокарты, но ЦП все еще может ее использовать.

В правом нижнем углу вы также заметите «Аппаратную зарезервированную память», которая представляет объем памяти, зарезервированной для видеодрайвера.

Объем выделенной памяти в этом разделе представляет собой общий объем памяти, активно используемый процессами, а объем общей памяти в этом разделе представляет собой объем системной памяти, потребляемой для графики.

Кроме того, на левой панели под именем GPU вы увидите текущее общее агрегированное использование производительности. Однако стоит отметить, что диспетчер задач использует процент наиболее загруженного движка для представления общего использования.

Чтобы увидеть данные о производительности в действии, запустите приложение, которое реально использует графический процессор, или попробуйте сыграть в игру.

Вкладка Обработка

Вы также можете отслеживать производительность графического процессора через вкладку «Обработка». В этом разделе вы найдете агрегированную сводку по запущенным в данный момент процессам.

Столбец GPU показывает использование наиболее активного механизма для представления общего использования для конкретного процесса на всех графических процессорах.

Однако, чтобы избежать путаницы, если несколько механизмов сообщают о 100-процентном использовании, существует столбец GPU Engine , в котором указывается точный графический процессор и механизм, используемые рассматриваемым процессом.

На вкладке «Процесс» в верхней части столбца вы также найдете общее использование ресурсов для каждого графического процессора, настроенного на вашем устройстве.

Если вы не видите эти столбцы, щелкните столбец правой кнопкой мыши и проверьте параметры GPU и GPU Engine .

Вкладка «Подробности»

По умолчанию на вкладке «Подробности» не отображается информация о графическом процессоре, но вы всегда можете щелкнуть столбец правой кнопкой мыши, выбрать параметр Выбрать столбцы и включить эти параметры:

  • GPU.
  • GPU Engine.
  • Выделенная память графического процессора.
  • Общая память графического процессора.

В столбцах памяти отображается общий объем совместно используемой и выделенной видеопамяти, используемой в данный момент конкретным процессом. GPU и GPU Engine показывают ту же информацию, что и вкладка «Обработка».

При использовании вкладки «Подробности» вам просто нужно знать, что добавление используемой памяти каждым процессом может оказаться больше, чем общая доступная память, поскольку общая память будет подсчитана несколько раз.Эта информация полезна для понимания использования памяти каждым процессом, но вам следует использовать вкладку «Производительность», чтобы увидеть более точное общее использование видео.

Завершение

Хотя Microsoft заявляет, что диспетчер задач будет предоставлять пользователям более точные данные о производительности графического процессора, чем сторонние инструменты, стоит отметить, что эти изменения все еще находятся в стадии разработки, и компания планирует со временем улучшать их.

Что вы думаете об информации о графическом процессоре, которая теперь доступна в диспетчере задач? Расскажите нам в комментариях ниже.

Дополнительные ресурсы по Windows 10

Чтобы получить дополнительные полезные статьи, статьи и ответы на распространенные вопросы о Windows 10, посетите следующие ресурсы:

Мы можем получать комиссию за покупки, используя наши ссылки. Узнать больше.

Он скользит

Обзор: Mobile Pixels DUEX Plus — блестящая идея, но только в хорошем исполнении

Добавление второго экрана к вашему ноутбуку становится все более популярным в наши дни, но что, если бы вы могли подключить этот второй экран? У Mobile Pixels появился новый Kickstarter для экрана DUEX Plus, и мы потратили на это некоторое время.Вот что нам нравится, а что нет, и стоит ли вам покупать.

Сделай так

Что на самом деле может означать «следующее поколение Windows»?

Ранее на этой неделе Панос Панай сделал краткое, но дразнящее заявление о том, что для Windows предстоит что-то грандиозное, назвав то, что будет следующим, «Windows следующего поколения». Microsoft не использовала подобную терминологию с момента дебюта Windows 10. в 2015 году, и это произошло потому, что Windows 10 была новой операционной системой, пришедшей на смену предыдущей.

Выполните тяжелый тест 3D для проверки производительности вашего графического процессора

Поскольку графический процессор играет жизненно важную роль в обеспечении наилучшего игрового процесса на ПК, геймеры проявляют крайнюю озабоченность по поводу типа и мощности графического процессора, установленного в их системах. Если вы ищете лучший графический процессор, доступный на рынке, проверьте лучшие результаты тестов графического процессора перед покупкой. Инструменты тестирования графического процессора особенно полезны, когда вам нужно подвергнуть свой графический процессор различным видам тестов, чтобы проверить широкий спектр возможностей, таких как затенение стекла, затенение пикселей, четкость моделей 3D-объектов и т. Д.Из многих атрибутов, которые пользователи ищут в своих графических процессорах, возможность отображать тени объектов считается наиболее подходящим критерием для проверки мощности графического процессора.

Мягкие тени Banchmark — это инструмент тестирования производительности графического процессора, который проверяет установленный графический блок на предмет качественного отображения теневых эффектов в трехмерной среде. Хотя, как правило, его можно использовать для быстрого тестирования установленного графического процессора в любой системе, его основное внимание уделяется блоку обработки пикселей (пиксельным конвейерам). Он создает трехмерную среду, визуализируя 5 объектов с 3 динамическими световыми эффектами при вычислении FPS анимации, поэтому пользователи могут сравнивать результаты с другими доступными высокопроизводительными графическими процессорами.

Перед началом теста рекомендуется использовать один высокопроизводительный графический процессор, который поддерживает все базовые уровни качества графики. Поскольку эталонный тест использует все качества 3D, вам не следует использовать его на слабых системах, так как это может прервать ваш рабочий сеанс до перезагрузки системы. В частности, он проверяет объекты буфера вершин (VBO), буфер кадра (FBO) и кодовый путь GL 2.0. Для начала запустите приложение и в разделе «Режим запуска» установите флажок «Бенчмарк» или «Тест стабильности».В разделе «Параметры» у вас есть возможность включить динамический переход или полноэкранный режим. Когда закончите, нажмите Go, чтобы начать тест производительности.

Он загрузит высококачественную анимацию с 5 трехмерными объектами, вращающимися друг вокруг друга. Частота кадров вместе с информацией о вашем графическом процессоре отображается в верхней части экрана.

По завершении теста вы увидите свой балл GPU с включенным или выключенным ветвлением. Внизу он отображает средство визуализации, диски, модель процессора, тип и тактовую частоту, а также общую информацию о физической памяти.

Не забудьте открыть страницу продукта, чтобы сравнить свой результат с результатами тестов других графических устройств. Вы также можете попробовать GPU Shark от того же разработчика, чтобы протестировать графическую карту Nvidia Geforce и ATI Radeon. Soft Shadows Benchmark поддерживает Windows XP, Windows Vista и Windows 7.

Загрузить Benchmark Soft Shadows

Групповой тест: графические процессоры Nvidia Quadro, Titan и GeForce RTX


Какой графический процессор Nvidia лучше всего подходит для работы с DCC? Джейсон Льюис тестирует четыре мощные видеокарты GeForce RTX, Titan RTX и Quadro RTX на базе технологии Тьюринга.


Первоначально опубликовано 11 октября 2019 г. Прочтите наш недавний обзор GeForce RTX 2080 Ti здесь.

В нашем последнем обзоре оборудования мы рассмотрим текущие графические процессоры RTX от Nvidia. То, что начиналось как обзор одного графического процессора профессионального класса, постепенно превратилось в более крупное групповое тестирование текущих потребительских карт и видеокарт Nvidia для рабочих станций, а также одного из конкурирующих графических процессоров AMD Radeon Pro для рабочих станций для справки. Некоторые карты уже появлялись в предыдущих обзорах с одним GPU на канале CG; другие совершенно новые.

Я упоминал об этом в своих последних нескольких обзорах, но стоит повторить: технологии ПК развивались лихорадочными темпами в последние пару лет по сравнению с остальной частью десятилетия. Архитектуры графических процессоров Nvidia Pascal и Turing предложили огромное улучшение производительности по сравнению с предыдущими поколениями, как и архитектура AMD Vega. Архитектура RDNA в новых графических процессорах AMD Navi также выглядит значительным обновлением.

В этом групповом тесте мы сравниваем все графические процессоры Nvidia из нескольких последних обзоров CG Channel друг с другом: Titan RTX, Titan V, GeForce GTX 1080 и GeForce GTX 1070.Кроме того, у нас есть три новинки: Quadro RTX 5000, Quadro RTX 4000 и GeForce RTX 2080. Для сравнения у нас есть один графический процессор AMD: Radeon Pro WX 8200. Я надеюсь вернуться к этим тестам с графическими процессорами AMD RDNA позже в этом году.

Перейти к другой части этого обзора
Технологии: архитектуры графических процессоров, типы памяти и API
Технологии: потребительские и рабочие станции
Технические характеристики и цены
Процедура тестирования
Результаты тестов
Анализ производительности для каждой карты
Другие вопросы: насколько действительно важна трассировка лучей RTX?
Другие вопросы: насколько хорошо масштабируется производительность DCC на нескольких графических процессорах?
Другие вопросы: насколько хорошо масштабируется рендеринг как на CPU, так и на GPU?
Другие вопросы: сколько памяти вам нужно на вашем графическом процессоре?
Вердикт



Технологии: архитектуры графических процессоров, типы памяти и API-интерфейсы
Прежде чем обсуждать тестируемые карты, давайте пробежимся по нескольким техническим терминам, которые будут повторяться в ходе этого обзора.Если вы уже знакомы с ними, можете пропустить их.

Текущая архитектура графического процессора Nvidia включает три типа процессорных ядер: ядра CUDA, предназначенные для обычных вычислений на графическом процессоре; Тензорные ядра, представленные в картах Volta предыдущего поколения и предназначенные для операций машинного обучения; и ядра RT, новые в его картах RTX и предназначенные для вычислений трассировки лучей.

Ядра RT — это аппаратная реализация Nvidia DXR, нового API DirectX Raytracing в DirectX 12.Хотя компания представила ограниченную поддержку трассировки лучей DXR на старых графических процессорах, в том числе на тестируемых здесь, большинство разработчиков программного обеспечения сосредотачиваются на новых картах RTX. Хотя мы начинаем видеть более широкое распространение RTX в играх, реализация поддержки нового оборудования в приложениях компьютерной графики — это гораздо более медленный процесс. Вы можете прочитать обзор инструментов DCC и игровых движков, которые в настоящее время поддерживают RTX, здесь.

Важно отметить, что сравнение количества ядер — разумный способ оценить вероятную относительную производительность различных карт Nvidia, но не сравнивать карты Nvidia с картами AMD, которые имеют другую архитектуру и объединяют ядра обработки в «вычислительные блоки». вместо.

Эти две фирмы также различаются API-интерфейсами, которые они поддерживают для вычислений на графических процессорах: в то время как AMD и Nvidia поддерживают открытый стандарт OpenCL, Nvidia фокусируется в первую очередь на собственном API CUDA. OpenCL имеет то преимущество, что он не зависит от оборудования, но CUDA более широко поддерживается в приложениях DCC, особенно в средствах визуализации.

Еще одна ключевая характеристика рендеринга графического процессора — это встроенная память: как общая емкость карты, так и тип памяти, которую она использует. Большинство тестируемых здесь карт используют какой-либо вариант памяти GDDR (Graphics Double Data Rate) — либо GDDR6, либо более старые GDDR5X и GDDR5, но некоторые используют HMB2 (память с высокой пропускной способностью), которая специально разработана с учетом пропускной способности памяти.


Ориентация на технологии: потребительские карты по сравнению с картами для рабочих станций
Еще одно ключевое различие между тестируемыми картами заключается в различии между профессиональными графическими процессорами для рабочих станций и их аналогами для потребительских игр. Хотя потребительские карты обычно намного дешевле, драйверы для карт рабочих станций оптимизированы для графических приложений, включая инструменты Adobe Creative Cloud и популярные пакеты DCC и CAD, такие как 3ds Max, Maya, AutoCAD и SolidWorks. Эти оптимизации обеспечивают большую стабильность по сравнению с их настольными аналогами.

Кроме того, производители предлагают более обширную поддержку клиентов для профессиональных карт: во многих случаях карты для рабочих станций являются единственными официально сертифицированными для использования с программным обеспечением DCC или CAD. По сути, профессиональные карты ориентированы на пользователей, которые полагаются не только на скорость, но и на стабильность и поддержку. Вы можете получить адекватную производительность от потребительской карты, но в периоды кризиса, когда вам нужна надежность, а также производительность, профессиональный графический процессор обеспечивает большее спокойствие.



Технические характеристики и цены

Titan RTX
Titan RTX является самым быстрым из графических процессоров Nvidia Turing, с вычислительной производительностью, идентичной лучшим Quadro RTX 6000 и Quadro RTX 8000. Он имеет 24 ГБ памяти GDDR6, 4 608 ядер CUDA, 576 Тензорные ядра и 72 ядра RT. Хотя графические процессоры Titan начинались как игровые карты, сейчас Nvidia продает их для создания контента, хотя им не хватает сертификации ISV и поддержки стандартных карт для рабочих станций.

Прочтите наш подробный обзор Nvidia Titan RTX здесь

Titan V
Titan V и его аналог для рабочих станций, GV100, являются единственными двумя графическими процессорами, не предназначенными для центров обработки данных, которые используют архитектуру Volta от Nvidia. Titan V имеет 12 ГБ памяти HBM2, 5120 ядер CUDA и 640 ядер Tensor. Он ориентирован на науку о данных и разработку ИИ, а не на создание контента, но, поскольку он имеет вывод на экран, мы добавляем его в микс.

Quadro RTX 5000
Первая из наших новинок — Quadro RTX 5000.Он находится в середине диапазона видеокарт Nvidia для рабочих станций Turing, ниже высокопроизводительных Quadro RTX 8000 и Quadro RTX 6000 и выше среднего уровня Quadro 4000. Он имеет 16 ГБ памяти GDDR6, 3072 ядра CUDA, 384 Tensor. ядер и 48 ядер RT.

Quadro RTX 4000
Следующим из наших новичков является Quadro RTX 4000. Хотя это графический процессор начального уровня среди видеокарт Nvidia Turing для рабочих станций, его характеристики делают его скорее картой среднего уровня. Он имеет 8 ГБ памяти GDDR6, 2304 ядра CUDA, 288 ядер Tensor и 36 ядер RT.Это также единственный однослотовый графический процессор Turing: остальные двухслотовые.

GeForce RTX 2080
Последним из наших новичков является GeForce RTX 2080. Он находится почти на вершине линейки потребительских карт Turing от Nvidia, чуть ниже GeForce RTX 2080 Ti и GeForce RTX 2080 Super. Он имеет 8 ГБ памяти GDDR6, 2944 ядра CUDA, 368 ядер Tensor и 46 ядер RT. Мы тестировали карту Nvidia Founders Edition.

GeForce GTX 1080
Несмотря на то, что его архитектура теперь устарела — два, если считать очень ограниченный выпуск графических процессоров Volta, — GeForce GTX 1080 по-прежнему широко используется для создания контента.Она почти возглавила линейку потребительских карт Pascal от Nvidia после GeForce GTX 1080 Ti. Он имеет 8 ГБ памяти GDDR5X и 2560 ядер CUDA. Мы тестировали Asus Founders Edition.

GeForce GTX 1070
GeForce GTX 1070, которая до сих пор широко используется, находится на вершине линейки потребительских карт Pascal от Nvidia и считается «младшим братом» GeForce GTX 1080. Она имеет 8 ГБ памяти GDDR5. и 1920 ядер CUDA. Мы снова тестировали Asus Founders Edition.

Radeon Pro WX 8200
Единственная карта AMD в нашем обзоре — это Radeon Pro WX 8200. Она находится на вершине нынешней серии видеокарт AMD Radeon Pro WX для рабочих станций после Radeon Pro WX 9100. Она имеет 8 ГБ памяти HBM2 и 56 вычислительных блоков.

Подробный обзор AMD Radeon Pro WX 8200 читайте здесь

Потребительские графические процессоры
Титан RTX Титан V GeForce
RTX 2080
GeForce
GTX 1080
GeForce
GTX 1070
Производитель Nvidia Nvidia Nvidia Nvidia Nvidia
Архитектура Тьюринг Вольта Тьюринг Паскаль Паскаль
Графический процессор ТУ102 GV100 ТУ104 GP104 GP104
Тактовая частота
(базовая, МГц)
1350 1200 1515 1607 1506
Тактовая частота
(boost, МГц)
1770 1455 1710 1733 1683
Память 24 ГБ 12 ГБ 8 ГБ 8 ГБ 8 ГБ
Тип памяти GDDR6 HBM2 GDDR6 GDDR5X GDDR5
Память
Пропускная способность (ГБ / с)
672 652 448 320 256
Ядра CUDA 4608 5120 2944 2560 1920
Вычислительные блоки
Тензорные ядра 576 640 368 0 0
RT ядер 72 0 46 0 0
Вычислительная мощность (FP32, Тфлопс) 16.3 14,9 10,1 8,9 6,5
Вычислительная мощность
(FP64, Гфлопс)
510 7450 315 277 202
Расчетная мощность 280 Вт 250 Вт 215 Вт 180 Вт 150 Вт
Цена 2500 долл. США
Рекоменд. Цена
2 999 долл. США
Рекоменд. Цена
799 долл. США
Рекоменд. Цена
~ $ 350-700
Б / у
~ $ 250-500
Б / у

Цены на использованные карты указаны на сайте www.newegg.com по состоянию на 8 октября 2019 г.

Графические процессоры для рабочих станций
Quadro
RTX 5000
Quadro
RTX 4000
Radeon Pro
WX 8200
Производитель Nvidia Nvidia драм
Архитектура Тьюринг Тьюринг Вега
Графический процессор ТУ104 ТУ104 Вега 10
Тактовая частота
(базовая, МГц)
1620 1005 1200
Тактовая частота
(boost, МГц)
1815 1545 1500
Память 16 ГБ 8 ГБ 8 ГБ
Тип памяти GDDR6 GDDR6 HBM2
Память
Пропускная способность (ГБ / с)
448 416 512
Ядра CUDA 3072 2304
Вычислительные блоки 56
Тензорные ядра 384 288
RT ядер 48 36
Вычислительная мощность (FP32, Тфлопс) 11.2 7,1 10,8
Вычислительная мощность
(FP64, Гфлопс)
349 223 672
Расчетная мощность 265 Вт 160 Вт 230 Вт
Цена 2299 долл. США
Рекоменд. Цена
899 долл. США
Рекоменд. Цена
999 долл. США
Рекоменд. Цена


Порядок испытаний

В качестве тестовой системы для этого обзора использовалась рабочая станция BOXX Technologies APEXX T3 с процессором AMD Ryzen Threadripper 2990WX, 128 ГБ оперативной памяти DDR4 2666 МГц, Samsung 970 Pro M.2 NVMe SSD и блок питания на 1000 Вт. Его спецификации должны гарантировать отсутствие узких мест в производительности графики при запуске тестовых сцен, за исключением тестируемых графических процессоров.

Подробный обзор рабочей станции BOXX APEXX T3 читайте здесь

Тесты выполнялись на Windows 10 Pro для рабочих станций и были разбиты на четыре категории:

Окно просмотра и производительность редактирования
3ds Max 2019, Blender 2.80 (бета), Fusion 360 2109, Maya 2019, Modo 12.1v2, SolidWorks 2019, Substance Painter 2018, Unity 2018.2.0b9, Unreal Engine 4.21, Unreal Engine 4.22 (трассировка лучей в области просмотра)

Рендеринг
Blender 2.80 (бета, с использованием Cycles), Cinema 4D R20 (с использованием Radeon ProRender), Indigo Renderer 4 (IndigoBench), LuxCoreRender 2.1, Maverick Studio Build 380.660, Redshift 2.6 для 3ds Max, SolidWorks 2019 Visualize, V- Ray Next для 3ds Max

Другие тесты
Premiere Pro CC 2018 (кодирование видео), Quake 2 RTX (трассировка лучей), Unreal Engine 4.21 (представление VR)

Синтетические тесты
3DMark, Cinebench R15

В тестах производительности окна просмотра и редактирования оценки частоты кадров представляют собой цифры, полученные при манипулировании показанными 3D-активами, усредненные за 8-10 сеансов тестирования для устранения несоответствий. Они также подразделяются на чистую производительность области просмотра — при панорамировании, повороте или масштабировании камеры — и производительность при манипулировании объектом. Производительность области просмотра во многом зависит от графического процессора; Производительность манипуляций зависит как от графического процессора, так и от процессора и обычно намного медленнее.

Во всех тестах рендеринга процессор был отключен, поэтому для вычислений использовался только графический процессор.

Тестирование проводилось на одном 32-дюймовом 4K-дисплее с исходным разрешением 3840 x 2160 пикселей при 60 Гц.


Результаты теста

Область просмотра и производительность редактирования

Тесты в области просмотра включают в себя многие ключевые приложения DCC — как универсальное 3D-программное обеспечение, такое как 3ds Max, Blender и Maya, так и другие специализированные инструменты, такие как Substance Painter, а также пакет CAD SolidWorks и два ведущих коммерческих игровых движка, Unity и Unreal Engine. .


Рендеринг
Тесты рендеринга включают как собственные движки рендеринга приложений DCC и CAD, так и популярные сторонние рендереры, такие как Redshift и V-Ray. Некоторые из них не поддерживают OpenCL, только CUDA, поэтому графический процессор AMD не регистрирует оценку для всех из них.


Обновлено 16 октября 2019 г. : Образ теста V-Ray был обновлен, чтобы удалить оценку AMD Radeon Pro WX 8200. См. Примечания о поддержке OpenCL в V-Ray Next в разделе комментариев.


Другие тесты
Далее у нас есть набор тестов, предназначенных для измерения более специализированных задач, таких как кодирование видео и производительность виртуальной реальности. Только для карт RTX я также включил Quake 2 RTX, переработанный Nvidia RTX шутера от первого лица 1997 года, предназначенный как доказательство концепции аппаратно-ускоренной трассировки лучей.


Синтетические тесты
Наконец, у нас есть два синтетических теста. Я не думаю, что синтетические тесты точно предсказывают, как графический процессор будет работать в производственной среде, но они предоставляют стандартизированный способ сравнения тестируемых карт со старыми моделями, поскольку оценки для широкого диапазона графических процессоров доступны в Интернете.В случае Cinebench я использую предыдущую версию программного обеспечения, Cinebench R15, так как она последней включает тест производительности графического процессора.




Анализ производительности для каждой карты

Учитывая количество тестируемых графических процессоров и массив тестов, которые каждый прошел, есть много данных, которые нужно обработать. В результате я собираюсь сделать что-нибудь отличное от моих предыдущих обзоров.Вместо того, чтобы обобщать все результаты и предлагать заключение в целом, я собираюсь представить сводку производительности и свои выводы для каждого графического процессора в отдельности.

Titan RTX
Titan RTX в настоящее время является одним из самых быстрых графических процессоров, которые вы можете купить. Здесь он побеждает во всех тестах. По сравнению с лучшими Quadro RTX 6000 и 8000, которые имеют одинаковые ключевые характеристики, но больше графической памяти, это воровство, но при цене 2500 долларов такая производительность по-прежнему стоит недешево.

Если вам нужен графический процессор для работы с окнами просмотра вашего программного обеспечения DCC и вам не нужна сертификация ISV, Titan определенно справится со своей задачей. Однако, если вы не работаете с чрезвычайно сложными активами, возможно, потребуется больше графического процессора, чем вам нужно. Как только больше приложений начнут использовать возможности трассировки лучей графических процессоров Turing, можно будет сделать больше для Titan RTX в качестве графического процессора окна просмотра, но к тому времени, вероятно, появится что-то более новое и быстрое.

Одной из ситуаций, которая может оправдать покупку Titan RTX, являются вычисления на графическом процессоре, особенно рендеринг.Titan RTX предлагает фантастическую производительность рендеринга и с его 24 ГБ графической памяти может обрабатывать очень большие сцены. Это станет более важным в наступающем году, поскольку из бета-версии выйдет все больше средств визуализации с собственной поддержкой трассировки лучей RTX.

Titan V
Titan V — это специальная карта, предназначенная для интеллектуального анализа данных и тех, кто работает с искусственным интеллектом и машинным обучением. Он по-прежнему хорошо работает с программным обеспечением DCC, но отстает от Titan RTX во всех тестах. Поскольку он стоит на 500 долларов дороже, имеет только половину графической памяти и не имеет специального оборудования для трассировки лучей Titan RTX, просто нет смысла покупать Titan V для развлекательной работы.

Quadro RTX 5000
Для меня Quadro RTX 5000 — самая привлекательная из нынешнего поколения карт Quadro. Если вы профессионал в области DCC, которому нужен графический процессор для рабочей станции и преимущества, которые он предоставляет, его производительность не так уж и далеко от Titan RTX, а его 16 ГБ графической памяти подойдут для большинства текущих ресурсов.

Так почему бы просто не заплатить еще пару сотен долларов и не получить Titan RTX? Одна из возможных причин заключается в том, что Quadro RTX 5000 — это профессиональная карта с сертификатом программного обеспечения и необходимой поддержкой; у Titan RTX нет.Другая причина заключается в том, что карты GeForce и Titan используют решение для двойного осевого охлаждения, тогда как карты Quadro имеют более традиционный одинарный вентилятор. Это лучше для конфигураций с несколькими графическими процессорами и систем, монтируемых в стойку, поскольку горячий воздух выходит из задней части карты, а не рециркулирует внутри корпуса рабочей станции. Для систем, которые работают под высокими нагрузками в течение продолжительных периодов времени, это может иметь значение.

Quadro RTX 4000
Quadro RTX 4000 — своеобразный продукт. Как и Quadro RTX 5000, он будет интересен только тем пользователям, которым нужны сертификаты независимых поставщиков ПО и поддержка, предлагаемая графическими процессорами для рабочих станций, но по сравнению с его более дорогим собратом, его производительность во всех отношениях.Во многих тестах он не сильно отстает от RTX 5000 и в одном случае фактически превосходит его, но в других, особенно основанных на игровых движках, таких как Unity и Unreal Engine, он значительно хуже.

Однако при рекомендованной рекомендованной производителем цене в 899 долларов Quadro RTX 4000 менее чем вдвое дешевле RTX 5000. В ситуациях, когда производительность двух карт постоянно близка, например, при рендеринге с помощью графического процессора, она обеспечивает хорошую производительность при гораздо меньших затратах. более низкая стоимость.

Но если вы рассматриваете Quadro RTX 4000 по сравнению с RTX 5000, нужно помнить, что RTX 5000 поддерживает NVLink, новейшую технологию соединения графических процессоров Nvidia, а RTX 4000 — нет.На мой взгляд, возможность связать две карты Quadro RTX 5000 и получить доступ к 32 ГБ графической памяти во время рендеринга графического процессора делает RTX 5000 гораздо более универсальным.

Еще одна интересная особенность RTX 4000 — это однослотовый форм-фактор. Многие обозреватели, такие как сама Nvidia, рекламируют это как одну из лучших функций RTX 4000, заявляя примерно следующее: «Высокая производительность графического процессора в небольшом корпусе». Я отвечу: «Да, но почему он должен быть маленьким? Если только многие профессионалы DCC не создают рабочие станции с графикой Mini-ITX (я никогда их не видел), я действительно не вижу необходимости в профессиональной видеокарте с одним слотом.Даже в корпусах для монтажа в стойку обычно есть место для двухслотовых графических процессоров: вертикально в шасси 3U и 4U и горизонтально в шасси 2U. Однослотовая конструкция RTX 4000 едва ли достаточна для охлаждения — даже при умеренных рабочих нагрузках он довольно сильно нагревается. С двухслотовым кулером его тактовая частота потенциально может повыситься, что повысит производительность.

GeForce RTX 2080
В этих тестах GeForce RTX 2080 работает так же, как Quadro RTX 5000. Этого и следовало ожидать, поскольку с точки зрения оборудования они очень близки.Оба используют варианты графического процессора Turing TU104 и имеют схожую вычислительную производительность. Самая большая разница между ними — это память: у GeForce RTX 2080 8 ГБ ОЗУ, а у Quadro RTX 5000 — 16 ГБ. Оба поддерживают NVLink, но неясно, используется ли в GeForce RTX 2080 это только для масштабирования нескольких GPU в играх или его также можно использовать для совместного использования памяти GPU при рендеринге, как в случае с графическими процессорами Titan RTX и Quadro RTX. .

При рекомендованной рекомендованной розничной цене 799 долларов RTX 2080 стоит дорого для потребительской карты, но если вы профессионал DCC — при условии, что вам не нужны другие преимущества, предоставляемые картой для рабочей станции, и 8 ГБ памяти не являются препятствием. — он предлагает такую ​​же производительность, что и Quadro RTX 5000, по гораздо более низкой цене.Его преемник, GeForce RTX 2080 Super, выпущенный незадолго до этого обзора, может предложить лучшую производительность.

GeForce GTX 1080
GeForce GTX 1080 на момент своего запуска была мощным графическим процессором, обеспечивающим значительный прирост производительности по сравнению с GTX 980 и GTX 980 Ti предыдущего поколения. Спустя чуть более трех лет он по-прежнему работает хорошо. Во многих тестах он приближается к GeForce RTX 2080, а в некоторых даже превосходит ее. Даже в тестах, где GTX 1080 немного отстает, он по-прежнему предлагает довольно хорошую производительность.В нем отсутствуют выделенные ядра AI и трассировки лучей графических процессоров RTX, но, учитывая ограниченное количество приложений, которые в настоящее время их используют, я бы не сказал, что это нарушает условия сделки.

Единственное, что мешает мне сказать: «Кому нужен RTX? Если у вас ограниченный бюджет, купите несколько GTX 1080 », — такова стоимость. Даже в использовании карты GTX 1080 по-прежнему продаются по цене около 500 долларов, что затрудняет рекомендацию графического процессора трехлетней давности, когда вы можете получить GeForce RTX 2070 текущего поколения примерно по той же цене.Я сам не тестировал RTX 2070, но говорят, что они немного быстрее.

Единственное исключение, которое я сделаю, рекомендуя GeForce GTX 1080 для текущей работы с DCC, — это если вы сможете найти подержанный дешево. В редких случаях я вижу их на eBay за 250–300 долларов, и по этой цене они очень выгодны. Если вы все же найдете использованный, просто убедитесь, что он не использовался в установке для майнинга криптовалюты, так как они часто подвергаются нагрузке в течение длительных периодов времени и могут выйти из строя.

GeForce GTX 1070
Как и GeForce GTX 1080, GeForce GTX 1070 — это игровая карта предыдущего поколения, которая неплохо держится сегодня.Я знаю несколько студий по разработке игр, где GTX 1070 по-прежнему является стандартным графическим процессором, используемым на рабочих станциях художников. Его производительность не слишком сильно отстает от GTX 1080, и он обладает такими же 8 ГБ оперативной памяти, хотя у него есть аналогичные проблемы со стоимостью: отремонтированный GTX 1070 стоит около 300 долларов США примерно по той же цене, что и новый GTX 1660 Ti, и не намного дешевле, чем GTX 2060 текущего поколения. Опять же, я сам не тестировал ни одну из карт, но их производительность, как говорят, аналогична или лучше, хотя здесь дополнительные 2 ГБ памяти в GTX 1070 могут быть аргументом в пользу продажи. когда дело доходит до рендеринга на GPU.

Рынок бывших в употреблении графических процессоров также более благоприятен для GTX 1070: хотя цены сильно колеблются, их можно купить всего за 150-200 долларов, что делает их действительно очень выгодными. Как и в случае с GTX 1080, если вы покупаете бывшую в употреблении, убедитесь, что карта не использовалась для майнинга криптовалюты, так как это может значительно сократить срок ее службы.

Radeon Pro WX 8200
Единственный графический процессор AMD в этом обзоре, Radeon Pro WX 8200, является одной из новейших видеокарт компании текущего поколения для рабочих станций.Он занимает ту же ценовую категорию, что и Quadro RTX 4000, и уступает ему в тестах, причем награды распределяются поровну в тех тестах, которые могут пройти обе карты. Однако Radeon Pro WX 8200 с его рекомендованной розничной ценой в 999 долларов на 100 долларов дороже; и без поддержки CUDA — причина того, что он не может выполнить все тесты рендеринга графического процессора — или специального оборудования для трассировки лучей новых карт Nvidia, он просто не так универсален.

Единственное исключение — если вы являетесь пользователем Maya или много выполняете кодирование видео с помощью Premiere Pro, поскольку в этих тестах Radeon Pro WX 8200 значительно опережает Quadro RTX 4000.То же самое и с редакторами Unity и Unreal Engine, поэтому и там можно было бы обосновать это, хотя большинство создателей контента, работающих с движками реального времени, используют графические процессоры для пользовательских игр.


Другие вопросы: насколько действительно важна трассировка лучей RTX?
Как я упоминал ранее, графические процессоры Nvidia RTX содержат специальное оборудование для трассировки лучей в реальном времени. Это может сильно изменить способ работы профессионалов DCC. Но как это работает в реальном мире?

В этом обзоре единственным тестом, который использует это новое оборудование, является Unreal Engine — и, как вы можете видеть из этих цифр, при включенной трассировке лучей сильно страдает производительность.Я видел несколько видео пользователей, использующих функции трассировки лучей UE4 с хорошей частотой кадров, но при гораздо более низком разрешении экрана. На дисплее 4K даже могучий Titan RTX изо всех сил пытается разогнаться до 30 кадров в секунду, и это с очень простой сценой, в которой используется только трассировка лучей для затененных источников света и отражений. (Экранное пространство AO, полупрозрачность и GI были отключены.) В Unreal Engine трассировка лучей с поддержкой RTX все еще официально находится в стадии бета-тестирования, поэтому, надеюсь, мы увидим увеличение скорости в будущем, но в настоящее время это не автоматическая победа.


Другие вопросы: насколько хорошо масштабируется производительность DCC на нескольких графических процессорах?
Все тесты в этом обзоре проводились на конфигурации с одним графическим процессором. Так насколько же быстрее работают установки с несколькими графическими процессорами? У этого есть два аспекта: производительность вычислений и производительность области просмотра.



Вычислительная производительность — например, во время рендеринга окончательного качества — очень хорошо масштабируется на нескольких графических процессорах. Выше вы можете увидеть результаты наших тестов рендеринга графического процессора при запуске на одной карте Quadro RTX 5000 и при запуске на двух картах Quadro RTX 5000.В результате прирост скорости колеблется от 65% в случае Radeon ProRender до 97% в случае графического процессора V-Ray.



Так что насчет производительности области просмотра? Настройки с использованием SLI, технологии Nvidia предыдущего поколения для соединения графических процессоров, могут значительно улучшить частоту кадров в играх, но могут ли они сделать то же самое для окон просмотра приложений DCC? Многие люди спрашивали меня об этом, поэтому я протестировал с использованием двух графических процессоров Quadro RTX 5000, обеспечивающих поддержку SLI через шину PCI Express на материнской плате ASRock X399 Taichi системы BOXX.В последний раз я пробовал использовать SLI с приложениями DCC в 2011 году, и эти тесты показали, что в то время он мало помогал при работе с графикой.

Перенесемся на девять лет вперед, и, к сожалению, то же самое. При включенном SLI производительность области просмотра во всех протестированных здесь приложениях DCC показала очень незначительные изменения, в некоторых случаях увеличиваясь на несколько кадров, а в других фактически снижаясь. Однако у меня не было доступа к мосту NVLink — новой технологии взаимодействия графических процессоров Nvidia — во время тестирования, так что, возможно, к этому стоит вернуться.


Другие вопросы: насколько хорошо масштабируется рендеринг как на CPU, так и на GPU?
В течение многих лет рендеринг окончательного качества выполнялся на центральном процессоре. Лишь недавно индустрия перешла к использованию графических процессоров для рендеринга. Но хотя графические процессоры рендеринга обычно быстрее, чем их аналоги, работающие только на ЦП, им часто не хватает расширенных функций. Сейчас мы начинаем видеть переход к тому, что, как я считаю, станет нормой: гибридным рендерерам CPU / GPU. И CUDA, и OpenCL, основные фреймворки для вычислений на GPU, позволяют использовать как CPU, так и GPU параллельно.Так как это влияет на производительность?



Как видите, когда вы добавляете вычислительную мощность процессора AMD Ryzen Threadripper 2990WX тестовой системы к мощности графического процессора, скорость рендеринга значительно увеличивается. Объединение ЦП с несколькими графическими процессорами приводит к дальнейшему увеличению. Хотя в этом тесте использовался движок Blender’s Cycles, все используемые здесь рендеры могут быть настроены на использование как CPU, так и GPU, за исключением Redshift и Maverick Studio.


Другие вопросы: сколько памяти вам нужно на вашем GPU?
Память является решающим фактором при принятии решения о том, какой графический процессор купить для работы DCC.Хотя разработчики программного обеспечения работают над поддержкой потоковой передачи текстур и рендеринга вне ядра, оба из которых должны в некоторой степени облегчить проблему, в большинстве случаев, если ваша сцена больше, чем доступная память, производительность вычислений графического процессора сильно снижается. . Итак, сколько памяти графического процессора достаточно памяти графического процессора?

Некоторые люди считают, что 6-8 ГБ оперативной памяти, которые сейчас являются стандартными для потребительских видеокарт и низкопроизводительных карт для рабочих станций, более чем достаточно. Хотя это может относиться к играм и задачам DCC начального уровня, это не всегда так.Один контрпример — работа с большими открытыми мирами в Unity или Unreal Engine. В то время как завершенные игры обычно полагаются на оптимизацию для потоковой передачи частей мира в память и из нее на основе сценариев или положения игрока, при работе в редакторе художникам нравится загружать большую часть, если не весь мир. Это может легко заполнить доступную память.

Еще один хороший контрпример — программа для текстурирования, такая как Substance Painter. Если вы работаете с текстурами высокого разрешения, несколькими наборами текстур и большим количеством слоев, ваша память графического процессора заполнится очень быстро.С 14 наборами текстур, каждый с разрешением 4K, и несколькими интеллектуальными материалами в каждом, готовая версия модели Moldy Crow, используемая в этих тестах, превышает даже 16 ГБ памяти, доступной на Quadro RTX 5000. Единственная карта, на которую она помещается. Память GPU — это Titan RTX.

Последний вариант использования графических процессоров с большим объемом оперативной памяти — архитектурная визуализация. Модели сложных зданий, таких как стадионы, могут быть безумно сложными, как и архитектурные генеральные планы. Если вы регулярно работаете с такими плотными данными САПР, подумайте о покупке карты с максимально возможным объемом памяти графического процессора.

Приговор

Что мы можем извлечь из всех этих данных? Трудно сделать окончательные заявления о том, какой графический процессор «лучший» — как мы видели, это зависит от ваших личных потребностей как создателя контента и вашего бюджета. Если вам нужна сертификация независимого поставщика программного обеспечения и поддержка клиентов, предоставляемая графическим процессором для рабочей станции, вы будете искать только эти продукты; в противном случае вы, вероятно, будете искать только более дешевые потребительские карты.

Однако можно сделать некоторые обобщения.Во-первых, если вы не найдете GPU Pascal предыдущего поколения по-настоящему дешевым, вам лучше выбрать карту Turing текущего поколения. Во-вторых, учитывая важность графической памяти для рендеринга графического процессора, покупка графического процессора с самым большим пулом видеопамяти, который вы можете себе позволить, даст вам максимальную гибкость, независимо от того, покупаете ли вы карту потребителя или рабочую станцию.

Имея только одну карту AMD в этом обзоре, я не могу дать никаких рекомендаций относительно графических процессоров компании в целом: только обратите внимание, что Radeon WX 8200 отстает от карт Nvidia RTX в этих тестах.Однако с новой архитектурой AMD RDNA, которая сейчас начинает разворачиваться в своих последних картах, а также с выпуском Nvidia своих обновленных графических процессоров GeForce RTX «Super», ситуация может измениться в будущем.

Итак, хотя я не могу сказать вам, какой конкретный графический процессор мне купить, я могу сказать, что сейчас прекрасное время для создания цифрового контента. Никогда у нас не было такого набора отличного оборудования для быстрого и эффективного создания контента, и я продолжаю с нетерпением ждать того, что принесет нам будущее!


Узнайте больше о графических процессорах Nvidia на ее веб-сайте

Узнайте больше о графических процессорах AMD на ее веб-сайте

Об авторе

Джейсон Льюис — старший художник по окружению в Obsidian Entertainment и постоянный обозреватель CG Channel.В свободное время он продюсирует потрясающие фан-проекты «Звездных войн». Свяжитесь с ним по телефону jason [at] cgchannel [dot] com

Благодарности

Я хотел бы выразить особую благодарность следующим людям за их помощь в предоставлении вам этого обзора:

Гейл Лагуна из Nvidia
Шон Килбрайд из Nvidia
Питер Амос из AMD
Марисса Сэнделл из Edelman
Коул Хагедорн из Edelman
Технологии рендеринга Redshift
Otoy
Бруно Оливейра85 на Blend Swap 905 Gorenanz Reynante 905

Теги: 3DMark, 3ds max, Adobe, AMD, анимация, Arch viz, архитектурная визуализация, Архитектура, Autodesk, тест, оценка производительности, тест производительности, лучший графический процессор RTX, Blender, CineBench, Cinema 4D, тактовая частота, вычислительная мощность, потребитель карта, потребительский графический процессор, CUDA, циклы, DCC, кодирование, FP32, FP64, Fusion 360, игровое искусство, разработка игр, игровой движок, игровая карта, игровой графический процессор, GDDR, GDDR5, GDDR5X, GDDR6, GeForce GTX 1070, GeForce GTX 1080 , GPU, графическая карта, графическая память, групповой тест, трассировка лучей с аппаратным ускорением, HBM2, насколько важна трассировка лучей RTX, сколько памяти вам нужно на вашем графическом процессоре, насколько хорошо масштабируется производительность DCC на нескольких графических процессорах, как хорошо масштабируется как для ЦП, так и для графического процессора, Indigo Renderer, IndigoBench, сертификация ISV, Джейсон Льюис, LuxCoreRender, Maverick Studio, Maya, пропускная способность памяти, тип памяти, моделирование, modo, NVIDIA, NVLink, OpenCL, Pascal, энергопотребление, Premiere Pro, Premiere Pro CC, цена, Quadro RTX 2080, Quadro RTX 4000, Quadro RTX 5000, Quake 2 RTX, Radeon Pro WX 8200, Radeon ProRender, трассировка лучей, Redshift, рендеринг, обзор, ядра RT, RTX, ядра RTX, SLI, Solidworks, Substance Painter, TDP, ядра Tensor, текстурирование, мощность теплового дизайна , Titan RTX, TItan V, Turing, UE4, Unity, Unreal Engine, vfx, виртуальная реальность, визуальные эффекты, визуализация, Volta, VR, какой графический процессор RTX купить, карта для рабочей станции, графический процессор для рабочей станции

Извлечение видеокарты и тестирование встроенной графики — Справочный центр CyberPowerPC

Заявление об отказе от ответственности: все представленные руководства представляют собой обобщенную информацию для личного устранения неполадок.Ни один из них не сертифицирован соответствующими производителями деталей. Любая неправильная установка / удаление, неправильное обращение или небрежность с вашей стороны будут считаться физическим повреждением и, следовательно, аннулируют вашу гарантию. Если у вас возникнут какие-либо проблемы или опасения, обратитесь в нашу службу технической поддержки.

Все представленные изображения могут отличаться от конфигурации и компонентов вашей собственной системы.

Чтобы узнать больше о том, на что распространяется ваша гарантия, обратитесь к следующим статьям:

Политика ограниченной гарантии CyberPowerPC

Политика ограниченной гарантии CyberPowerPC для электронной коммерции

В некоторых системах, но не во всех, может быть доступна встроенная графика, и это может помочь определить, связана ли проблема только с видеокартой, а не с другими частями системы.

  1. Во-первых, убедитесь, что ваш компьютер не включен и питание отключено от сети.
  2. Отсоедините монитор от видеокарты.
  3. Снимите боковую панель компьютера, чтобы получить доступ к внутренним компонентам ПК.
  4. Определите видеокарту. Рисунок 1 .
    Рис. 1
    • Дискретные дополнительные видеокарты (видеокарта / графический процессор), как правило, имеют большие размеры, и в большинстве случаев к ним прикреплены один или несколько вентиляторов.
  5. Отсоедините все силовые кабели, подключенные к видеокарте. Рисунок 2 .

    Рисунок 2
  6. Если у вас установлена ​​двойная видеокарта, не забудьте удалить мост SLI. Рисунок 3 .

    Рисунок 3
  7. Выкрутите видеокарту из корпуса (это может быть от 1 до 3 винтов, в зависимости от размера вашей видеокарты). Рисунок 4 .

    Рисунок 4
  8. Удерживая видеокарту за середину, осторожно нажмите на защелку замка безопасности на слоте PCI, чтобы освободить видеокарту из замка. Рисунок 5 .

    Рисунок 5
    • Важно не прилагать слишком много усилий, так как это может сломать защелку.
    • Некоторые защелки откидываются, в то время как другие нужно нажимать вниз, и они различаются в зависимости от производителя и модели. Он должен легко разблокироваться, а правая сторона видеокарты должна слегка выскочить после освобождения.
    • Удерживая видеокарту, осторожно снимите ее с материнской платы и помните, что карта может быть тяжелее, чем ожидалось.
  9. Осторожно поместите видеокарту в антистатический пакет или на картонную коробку вдали от любых электрических устройств.
  1. Подключите монитор к любому из доступных выходов дисплея на материнской плате, расположенному на задней панели компьютера. Рисунок 6 .

    Рисунок 6

    Примечание : Даже несмотря на то, что на материнской плате вашего компьютера может быть вывод дисплея, как показано на рисунке 6, они могут не работать, если используемый вами ЦП не поддерживает встроенную графику.

  2. Снова подключите компьютер к розетке.
  3. Включите ваш компьютер, чтобы увидеть, получаете ли вы какие-либо действия с вашего компьютера.
  4. Если проблема не устранена, возможно, она не связана с вашей видеокартой и, возможно, связана с какой-то другой проблемой.
  5. Следуйте инструкциям ниже в разделе «Переустановка видеокарты», чтобы переустановить ранее удаленную видеокарту.

Следуйте этим инструкциям, чтобы переустановить ранее удаленную видеокарту.

  1. Во-первых, убедитесь, что ваш компьютер не включен и питание отключено от сети.
  2. Снимите боковую панель компьютера, чтобы получить доступ к внутренним компонентам ПК.
  3. Удерживая видеокарту за середину, осторожно совместите видеокарту со слотом планки и слотом PCI и вставьте ее на место. Рисунок 7 .

    Рисунок 7

    • Вы должны услышать, увидеть и почувствовать, как фиксатор PCI встал на место, а скоба должна быть выровнена с отверстиями для винтов в корпусе.
  4. Поместите большие пальцы на край видеокарты, совместите их с концами разъема PCI на материнской плате и плотно прижмите его к материнской плате, чтобы убедиться, что она установлена ​​правильно. Рисунок 8 .

    Рисунок 8
  5. Прикрутите кронштейн видеокарты к корпусу. Рисунок 4 .

    Рисунок 4
  6. Подключите все кабели питания, подключенные к видеокарте. Рисунок 2 .

    Рисунок 2
  7. Если у вас установлена ​​двойная видеокарта, не забудьте повторно подключить мост SLI к обеим видеокартам.

Ваш комментарий будет первым

    Добавить комментарий

    Ваш адрес email не будет опубликован. Обязательные поля помечены *