мощный GPU и 8 ГБ счастья!, Страница 1. GECID.com
Отобразить одной страницейСтраница 1Страница 2
Четыре года назад, в мае 2016-го, NVIDIA представила две высокопроизводительные видеокарты 16-нм семейства Pascal – GeForce GTX 1080 и GTX 1070. Обе используют вариации чипа GP104 – у первой количество структурных блоков больше и частоты выше. К тому же GTX 1080 получила новую на то время память GDDR5X, а GTX 1070 досталась привычная GDDR5. NVIDIA компенсировала это снижением ценника на 35%. Радует, что в обоих случаях речь идет о 8 ГБ – они будут весьма кстати в некоторых современных проектах типа Apex Legends и DOOM Eternal.
Возобновлять знакомство с этой видеокартой будем на примере ASUS GeForce GTX 1070 Founders Edition. Для тестов нам ее предоставил магазин CompX.
Сама видеокарта интересна полностью эталонным дизайном, включая референсные частоты и систему охлаждения с единственным вентилятором радиального типа. В играх температура GPU достигала 83°C при критическом показателе в 94°C. В таком случае частота графического процессора поднималась в район 1700 МГц. Если нагрузка на видеокарту была ниже, и температура GPU опускалась в район 78°C, то частота поднималась выше 1800 МГц. Одним словом: хотите быстрее – берите с эффективным кулером и заводским разгоном, а эта видеокарта показывает базовый уровень возможностей GTX 1070.
Теперь познакомимся с тестовым стендом. Компоненты подбирались таким образом, чтобы с одной стороны они были достаточно мощными и не ограничивали потенциал видеокарты, а с другой – были ближе к народу.
На роль процессора пригласили 8-ядерный 16-поточный Ryzen 7 3700X. Базовая его частота составляет 3,6 ГГц, а динамическая может подниматься до 4,4 ГГц. Тепловой пакет заявлен на уровне 65 Вт.
Процессор установлен на microATX-плату BIOSTAR X470GTQ RACING с некогда топовым чипсетом X470. Ее можно купить почти за $100. Она поддерживает все три поколения Ryzen, включая серию 3000XT. Если BIOSTAR добавит поддержку чипов на Zen 3 – будет вообще бомба для желающих сэкономить.
Кулер тоже взяли без наворотов – Vinga CL3007R. Производитель просит $26 за башенную модель с пятью медными тепловыми трубками и 120-мм вентилятором на FDB-подшипнике.
Оперативная память представлена уже не самыми простыми модулями, зато без LED-подсветки. Взяли 16-гиговый комплект DDR4-3733 Patriot Viper Steel, чтобы не испытывать счастье в разгоне.
Дисковая подсистема представлена двумя твердотельниками от ADATA. Для системы и необходимых программ взяли быстрый M.2 XPG SX8200 PRO объемом 512 ГБ.
Все игры поместились на 2,5-дюймовый SU800 емкостью 2 ТБ. Да, он медленнее M.2 PCIe, зато с ним удобнее работать из-за большого количества самих игр. Приличные для SATA SSD скорости в районе 500 МБ/с гарантируют быструю загрузку уровней и подгрузку необходимых данных.
Временным приютом для всех компонентов стал Middle Tower корпус Vinga Tank со стеклянной боковой панелью. Он поддерживает установку плат формата EATX, видеокарт длиной до 380 мм, процессорных кулеров высотой до 165 мм и 240-мм СЖО. Сделан добротно и выглядит красиво.
Но в комплекте нет корпусных вентиляторов. Система у нас мощная – пришлось добавить два 120-мм Vinga RGB FAN-06 с красочной LED-подсветкой и долговечными FDB-подшипниками. На скорости 1100 об/мин мы их даже не услышали на фоне других компонентов.
На блоке питания лучше не экономить, особенно если железки нужно возвращать. Вот и взяли Seasonic PRIME TX-750 с сертификатом 80PLUS Titanium и солидным запасом по мощности. Его эффективность достигает 96% в пике. Добавьте к этому полностью модульную систему кабелей и 12 лет гарантии.
С выводом изображения помог монитор AOC U2790PQU
. А с записью геймплеев без потери производительности справилась внешняя система с AVerMedia Live Gamer 4K.Все, переходим к тесту. Большинство простых онлайн-проектов типа Dota 2, Warframe и Crossout точно без проблем пойдут на GTX 1070. Для наглядности оставили лишь парочку подобных игр. С них и начнем.
War Thunder на максималках выдает более 180 кадров/с в среднем. Сами понимаете, что ни о каких фризах и подлагиваниях речи быть не может. Иными словами, свалить на систему вину за проигрыш не получится – придется по старинке искать криворуких напарников. Если же таковых нет, а команда все равно проиграла, то у нас для вас плохие новости.
В World of Tanks выбрали ультра пресет и быструю ЛТ-ешку, чтобы геймплей получился более динамичным. Средняя скорость достигла 135 кадров/с, а показатель очень редких событий опустился до 86. Input lag в управлении? Статоры в видеоряде? Нет, не видели!
С ARK Survival Evolved не стали заморачиваться – выбрали просто высокий пресет и побежали изучать повадки динозавров на средней скорости за 60 FPS. На графике Frame Time есть неприятные пики, но в игре они не ощущались. Хотя может нам просто повезло в этой тестовой пробежке.
RUST порадовала еще больше. При почти максимальных настройках графики текущий фреймрейт постоянно находился выше 60 кадров/с. Даже прогулка на лошадке не вызвала никаких притормозок. Да и оперативки, как для RUST, потребовалось не много – менее 11 ГБ.
Неувядающая Rainbow Six Siege на ультрах в среднем выдает более 170 кадров/с, а статистика 0,1% Low опускается в район 120 кадров/с. PUBG и остальным шутерам такое даже и не снилось. Претензии могут возникнуть лишь к собственной реакции и умелым действиям противников.
Полет на ультрах в Escape from Tarkov прошел нормально. Под конец тестовой пробежки показатель очень редких событий просел ниже 30 FPS. В этом частично виноваты боты. В целом проблем с отзывчивостью управления или плавностью видеоряда не было.
PUBG при народном миксе ультра и низких настроек выдает в среднем более 120 FPS, без фризов и тормозов. Видеокарта позволяет поднять все настройки на ультра, но при игре на результат это будет больше мешать и отвлекать. А атмосферу праздника лучше создать более высоким местом в общем зачете.
Социальные комментарии Cackle
Рабочая температура видеокарт компьютеров, таблица.
Приведена рабочая температура видеокарт компьютеров под нагрузкой. В таблице представлен рабочий температурный режим, на который считается производителем видеокарты нормальным.
Видеокарта | Рабочая темпе- ратура град. |
---|---|
GeForce GTX 460 1Gb | 65 |
GeForce GTS 450 1Gb | 71 |
AMD Radeon HD 5750 1Gb | 72 |
AMD Radeon HD 5770 1Gb | 72 |
GeForce GTX 560 Ti 1Gb | 76 |
AMD Radeon HD 6870 1Gb | 78 |
GeForce GTX 570 Ti 1.3Gb | 81 |
GeForce GTX 580 1.5Gb | 81 |
AMD Radeon HD 5830 1Gb | 82 |
AMD Radeon HD 6950 2Gb | 82 |
AMD Radeon HD 5850 1Gb | 83 |
AMD Radeon HD 5870 1Gb | 87 |
AMD Radeon HD 5970 2Gb | 87 |
AMD Radeon HD 6970 2Gb | 90 |
GeForce GTX 470 1.3Gb | 92 |
GeForce GTX 480 1.5Gb | 96 |
GeForce GTX 580 GTX 590 3Gb | 81 |
AMD Radeon HD 6990 | 97-100 |
GeForce GTX 630, GTX 640 | 75 |
GeForce GTX 650 | 66 |
GeForce GTX 650Ti | 69 |
GeForce GTX 660 | 64 |
GeForce GTX 660Ti | 78 |
GeForce GTX 670, GTX 680 | 80 |
GeForce GTX 690 | 77 |
GeForce GTX 750 | 76 |
GeForce GTX 750Ti | 70 |
GeForce GTX 760 | 82 |
GeForce GTX 770 | 77 |
GeForce GTX 780 780Ti | 83 |
GeForce GTX 950 | 75 |
GeForce GTX 960 | 78 |
GeForce GTX 970 | 73 |
GeForce GTX 980 | 81 |
GeForce Titan X | 83 |
GeForce GTX 1030 | 82 |
GeForce GTX 1040, 1050, 1050 Ti | 80 |
GeForce GTX 1060 | 80 |
GeForce GTX 1070 | 83 |
GeForce GTX 1080 | 84 |
GeForce GTX 1080 Ti | 80 |
Эти данные помогут определить неисправность видеокарты компьютера а также избежать излишних переживаний.
Назад к определению неисправности компьютера
Обзор видеокарты NVIDIA GeForce GTX 1660: Polaris, подвинься / Видеокарты
⇡#
Тестовый стенд, методика тестированияТестовый стенд | |
---|---|
CPU | Intel Core i9-9900K (4,9 ГГц, 4,8 ГГц в AVX, фиксированная частота) |
Материнская плата | ASUS MAXIMUS XI APEX |
Оперативная память | G.Skill Trident Z RGB F4-3200C14D-16GTZR, 2 x 8 Гбайт (3200 МГц, CL14) |
ПЗУ | Intel SSD 760p, 1024 Гбайт |
Блок питания | Corsair AX1200i, 1200 Вт |
Система охлаждения CPU | Corsair Hydro Series h215i |
Корпус | CoolerMaster Test Bench V1.0 |
Монитор | NEC EA244UHD |
Операционная система | Windows 10 Pro x64 |
ПО для GPU AMD | |
Все видеокарты | AMD Radeon Software Adrenalin 2019 Edition 19.2.3 |
ПО для GPU NVIDIA | |
Все видеокарты | NVIDIA GeForce Game Ready Driver 419.35 Beta |
Синтетические тесты 3D-графики | |||
---|---|---|---|
Тест | API | Разрешение | Полноэкранное сглаживание |
3DMark Fire Strike 1.1 | DirectX 11 (feature level 11_0) | 1920 × 1080 | Выкл. |
3DMark Fire Strike 1.1 Extreme | 2560 × 1440 | ||
3DMark Fire Strike 1.1 Ultra | 3840 × 2160 | ||
3DMark Time Spy 1.1 | DirectX 12 (feature level 11_0) | 2560 × 1440 | |
3DMark Time Spy Extreme 1.1 | 3840 × 2160 |
Игровые тесты | |||
---|---|---|---|
Игра (в порядке даты выхода) | API | Настройки, метод тестирования | Полноэкранное сглаживание |
1920 × 1080 / 2560 × 1440 | |||
Grand Theft Auto V | DirectX 11 | Встроенный бенчмарк. Макс. качество графики | MSAA 4x + FXAA + Reflection MSAA 4x |
Ashes of the Singularity: Escalation | Vulkan | Встроенный бенчмарк. Макс. качество графики | MSAA 4x + TAA 4x |
Total War: WARHAMMER II, встроенный бенчмарк | DirectX 12 | Встроенный бенчмарк (Battle Benchmark). Макс. качество графики | MSAA 4x |
Wolfenstein II: The New Colossus | Vulkan | OCAT, миссия Roswell. Макс. качество графики. Deferred Rendering, GPU Culling, Adaptive Shading — выкл. | TSSAA (8TX) |
Final Fantasy XV | DirectX 11 | Встроенный бенчмарк + OCAT. Макс. качество графики. GameWorks выкл., DLSS выкл. | TAA |
Far Cry 5 | DirectX 11 | Встроенный бенчмарк. Макс. качество графики | TAA |
Strange Brigade | Vulkan | Встроенный бенчмарк. Макс. качество графики | AA Ultra |
Shadow of the Tomb Raider | DirectX 12 | Встроенный бенчмарк. Макс. качество графики | SMAA 4x |
Assassin’s Creed Odyssey | DirectX 11 | Встроенный бенчмарк. Макс. качество графики | TAA High |
Battlefield V | DirectX 12 | OCAT, миссия Liberte. Макс. качество графики. DXR выкл., DLSS выкл. | TAA High |
Metro Exodus | DirectX 12 | Встроенный бенчмарк. Макс. качество графики. DXR выкл., DLSS выкл. | TAA |
DiRT Rally 2.0 | DirectX 11 | Встроенный бенчмарк. Макс. качество графики | MSAA 4x + TAA |
В большинстве тестовых игр показатели средней и минимальной кадровых частот выводятся из массива времени рендеринга индивидуальных кадров, который записывает встроенный бенчмарк (или утилита OCAT, если его нет).
Средняя частота смены кадров на диаграммах является величиной, обратной среднему времени кадра. Для оценки минимальной кадровой частоты вычисляется количество кадров, сформированных в каждую секунду теста. Из этого массива чисел выбирается значение, соответствующее 1-му процентилю распределения.
Исключениям из этой методики являются игры DiRT Rally 2.0, Far Cry 5 и Wolfenstein II: The New Colossus. Встроенный бенчмарк DiRT Rally 2.0 не записывает время рендеринга отдельных кадров — файл с результатами содержит среднюю частоту смены кадров и минимальную, рассчитанную по максимальному времени кадра. Встроенный бенчмарк Far Cry 5 записывает количество кадров в отдельную секунду теста, поэтому среднее FPS рассчитывается исходя из этих чисел, а не по среднему времени рендеринга кадра.
Для тестирования в Wolfenstein II мы используем OCAT, но в этой игре утилита не сохраняет журнал рендеринга отдельных кадров. Здесь в качестве минимального FPS используется число, которое OCAT выводит на экран, обратное 99-му процентилю времени кадра.
Вычисления общего назначения, кодирование/декодирование видео | |||
---|---|---|---|
Программа | Настройки | ||
AMD | NVIDIA | ||
Adobe Premier CC 2019 | Рендеринг и кодирование 8К-видео | Экспорт в H.265 (HEVC) [email protected] | |
Blender 2.8 Beta, Cycles Render | Classroom Demo | — | |
CompuBench 2.0 | Ocean Surface Simulation | — | |
N-Body Simulation 1024K | — | ||
DXVA Checker 4.1.2, Decode Benchmark | H.264 | 1920 × 1080 (High Profile, L4.1), 3840 × 2160 (High Profile, L5.1). Microsoft h364 Video Decoder | |
H.265 | 1920 × 1080 (Main Profile, L4.0), 3840 × 2160 (Main Profile, L5.0), 7680 × 4320 (Main Profile, L6.0). Microsoft HEVC Video Extensions | ||
VP9 | 1920 × 1080, 3840 × 2160, 7680 × 4320. Microsoft VP9 Video Extensions | ||
Ffmpeg 4.0.2, кодирование H.264 | 1920 × 1080 | -c:v h364_amf -quality speed -coder cabac -level 4.1 -refs 1 -b:v 3M | -c:v h364_nvenc -preset fast -coder cabac -level 4.1 -refs 1 -b:v 3M |
3840 × 2160 | -c:v h364_amf -quality speed -coder cabac -level 5.1 -refs 1 -b:v 7.5M | -c:v h364_nvenc -preset fast -coder cabac -level 5.1 -refs 1 -b:v 7.5M | |
Ffmpeg 4.0.2, кодирование H.265 | 1920 × 1080 | -c:v hevc_amf -quality speed -level 4 -b:v 3M | -c:v hevc_nvenc -preset fast -level 4 -b:v 3M |
3840 × 2160 | -c:v hevc_amf -quality speed -level 5 -b:v 7.5M | -c:v hevc_nvenc -preset fast -level 5 -b:v 7.5M | |
7680 × 4320 | — | -c:v hevc_nvenc -preset fast -level 6 -refs 1 -b:v 20M | |
LuxMark 3.1 | Hotel Lobby (Complex Benchmark) | — | |
SiSoftware Sandra Titanium (2018) SP3b | GPGPU Processing | OpenCL (FP16/FP32/FP64) | CUDA (FP16/FP32/FP64) |
GPGPU Scientific Analysis |
Мощность видеокарт регистрируется отдельно от CPU и прочих компонентов ПК с помощью амперметра MingHe VAC-1050A. Чтобы одновременно измерить ток, проходящий по разъемам дополнительного питания и слоту материнской платы, видеокарта подключается через жесткий райзер PCI Express x16, в котором линии питания разорваны и выведены на отдельный кабель.
В качестве тестовой нагрузки для измерения мощности и уровня шума используется игра Crysis 3 при разрешении 3840 × 2160 без полноэкранного сглаживания и максимальных параметрах качества графики, а также стресс-тест FurMark с наиболее агрессивными настройками (разрешение 3840 × 2160, MSAA 8x). Замеры всех параметров выполняются после прогрева видеокарты, когда температура GPU и тактовые частоты стабилизируются.
⇡#
Участники тестированияВ тестировании производительности приняли участие следующие видеокарты:
⇡#
Тактовые частоты, энергопотребление, температура, разгонGIGABYTE GeForce GTX 1660 OC — это, по сути, та же самая видеокарта, которая фигурирует в нашем обзоре GeForce GTX 1660 Ti, только с урезанным GPU. Обе модели предварительно разогнаны относительно референсных параметров, но в остальном мы оказались в идеальной ситуации, чтобы сравнить между собой «обычный» GTX 1660 и версию Ti.
Графический процессор TU116 в составе GeForce GTX 1660 лишился 8 % основных вычислительных ресурсов (шейдерных ALU и блоков наложения текстур), но устойчивая частота под нагрузкой здесь, наоборот, выше — на 65 МГц. Но у двух видеокарт есть и другие, подчас неочевидные, различия. Старшая и младшая модификации GTX 1660 обладают почти одинаковой потребляемой мощностью, но дело вовсе не в тактовых частотах. Чипы GDDR5 в составе «простого» GTX 1660 нуждаются в повышенном напряжении питания по сравнению с GDDR6, и вольтаж GPU здесь тоже увеличен — похоже, отбраковка кристаллов TU116 для GTX 1660 идет не только по числу активных SM, но и по напряжению, которое требуется для поддержания заданных тактовых частот. Неспроста жесткий лимит мощности у GTX 1660, как показывает FurMark, установлен на более высоком уровне.
Кстати, вручную увеличить резерв энергопотребления GIGABYTE GeForce GTX 1660 OC уже невозможно, но это нисколько не ограничивает оверклокинг. Предельная базовая частота для обеих видеокарт, как нарочно, составляет 1660 МГц, а под нагрузкой разгон позволил выиграть дополнительные 116 МГц. Однако напряжение питания GPU в таких условиях достигает программного лимита в 1,044 В, который характерен для всех видеокарт на чипах Turing, и кратковременно даже превосходит это значение.
Рабочие параметры под нагрузкой (Crysis 3) | |||||||||
---|---|---|---|---|---|---|---|---|---|
Видеокарта | Настройки | Тактовая частота GPU, МГц | Напряжение питания GPU, В | Частота вращения вентиляторов, об/мин (% от макс.) | Частота вращения вентиляторов 2, об/мин (% от макс.) | ||||
Средн. | Макс. | Предел | Средн. | Макс. | Предел | Средн. | Средн. | ||
GIGABYTE GeForce GTX 1660 OC (1530/8000 МГц, 6 Гбайт) | 1935 | 1935 | 1995 | 1,031 | 1,031 | 1,044 | 1915 (69%) | НД | |
GIGABYTE GeForce GTX 1660 OC (1660/9500 МГц, 6 Гбайт) | 2051 | 2055 | 2115 | 1,043 | 1,050 | 1,044 | 2033 (73%) | НД | |
GIGABYTE GeForce GTX 1660 Ti (1500/12000 МГц, 6 Гбайт) | 1870 | 1905 | 1980 | 0,939 | 0,975 | 1,044 | 1950 (64%) | НД | |
GIGABYTE GeForce GTX 1660 Ti (1660/15000 МГц, 6 Гбайт) | +25% TDP | 2038 | 2055 | 2130 | 0,979 | 1,000 | 1,044 | 2254 (74%) | НД |
NVIDIA GeForce RTX 2060 FE (1365/14000 МГц, 6 Гбайт) | 1836 | 1875 | 1950 | 0,991 | 1,031 | 1,044 | 1661 (45%) | 1661 (45%) | |
ASUS GeForce GTX 1060 OC (1506/9028 МГц, 6 Гбайт) | 1848 | 1848 | 1898 | 1,050 | 1,050 | 1,062 | 1431 (39%) | НД | |
NVIDIA GeForce GTX 1070 FE (1506/8008 МГц, 8 Гбайт) | 1775 | 1823 | 1911 | 0,995 | 1,043 | 1,100 | 1898 (47%) | НД | |
AMD Radeon RX 580 (1340/8000 МГц, 8 Гбайт) | WattMan: Balanced | 1340 | 1340 | 1340 | 1,072 | 1,081 | 1,150 | 1714 (52%) | НД |
SAPPHIRE NITRO+ Radeon RX 590 SE(1545/8000 МГц, 8 Гбайт) | WattMan: Balanced, Silent UEFI | 1543 | 1545 | 1545 | 1,140 | 1,181 | 1,150 | 1252 (28%) | НД |
Прим.: измерение всех параметров выполняется после прогрева GPU и стабилизации тактовых частот.
Благодаря тому, что контроллеры RAM в процессоре TU116 рассчитаны на высокие частоты микросхем GDDR6, GTX 1660 позволяет эффективно разгонять чипы GDDR5. У нашего экземпляра оперативную память удалось запустить на эффективной частоте 9,5 ГГц, таким образом увеличив ПСП на внушительные 19 %.
В результате оверклокинга GPU и RAM потребляемая мощность GIGABYTE GeForce GTX 1660 OC в Crysis 3 увеличилась на 14 Вт, но в абсолютных значениях устройство всего лишь вышло на уровень GeForce GTX 1060. Главное, что основным соперникам новинки подобная энергоэффективность не светит — в особенности это касается Radeon RX 590, который, невзирая на техпроцесс 12 нм, потребляет на сотню ватт больше разогнанного GTX 1660 даже при штатных частотах.
Ни GTX 1660, ни родственная модель с пометкой Ti производства GIGABYTE не являются особенно тихими видеокартами. Даже референсная версия Radeon RX 580 с кулером-турбинкой оказалась тише — вот результат экономии на системе охлаждения, которой производитель выделил единственную тепловую трубку.
Результаты синтетических тестов зачастую расходятся с показателями быстродействия в реальных играх, особенно когда идет сравнение GPU различной архитектуры. Но в случае ускорителей на чипах Turing синтетика демонстрирует важную тенденцию: новое поколение чипов NVIDIA одинаково хорошо справляется с вычислениями под Direct3D 11 и 12, чего не скажешь об архитектуре Pascal, которая отдает предпочтение устаревшему API. Именно из-за тестов под Direct3D 11 в совокупности результатов GeForce GTX 1660 лишь на 11 % превосходит GeForce GTX 1060. С другой стороны, GTX 1660 настолько хорошо выступил в бенчмарках под Direct3D 12, что порой приближается к GeForce GTX 1070 на расстояние 3 % (хотя по усредненной разнице последний сохраняет преимущество в 24 %).
Положение GeForce GTX 1660 относительно других моделей семейства Turing уже мало зависит от избранного API. Так, GeForce RTX 2060 опередил новинку на 41 %, а GTX 1660 Ti — на 15 %. Впрочем, разгон позволяет сократить до минимума дистанцию между младшей и старшей модификациями GTX 1660.
Radeon RX 580 и RX 590 ничуть не уступают новинке в тестах под Direct3D 11, а при высоком разрешении превосходят ее на 20–31 % баллов. Но тесты под Direct3D 12 расставили все по местам: по общим результатам GeForce GTX 1660 на 4 % обошел Radeon RX 580, но Radeon RX 590 уступил 5 %.
⇡#
Игровые тесты (1920 × 1080)Благодаря тому, что большинство тестовых игр работают под API Direct3D 12, соотношение результатов между GeForce GTX 1660 и видеокартами предыдущего поколения сдвинуто в пользу новой модели. Так, GeForce GTX 1070 лишь на 15 % превосходит GTX 1660, а преимущество последнего перед GTX 1060 и Radeon RX 580 составляет 16 и 19 % соответственно. Даже Radeon RX 590 уступает новинке 8 % по средней частоте смены кадров. Есть лишь три игры, в которых старший Polaris взял верх — это Ashes of the Singularity: Escalation, Strange Brigade и Wolfenstein II: The New Colossus.
В рамках семейства Turing разница между GeForce GTX 1660 и модификацией Ti составляет 15 %, как и в 3DMark, а вот GTX 2060 при низком разрешении экрана не может работать в полную силу и в результате опережает GTX 1660 лишь на 35 %.
Разгон GeForce GTX 1660 даже в режиме 1080p достаточно эффективен благодаря значительному росту частоты памяти и увеличивает среднюю частоту смены кадров на 11 %.
Если Вы заметили ошибку — выделите ее мышью и нажмите CTRL+ENTER.
Обзор видеокарты GeForce GTX 1660 SUPER: приятное усиление
Компания NVIDIA усиливает свои позиции в очень популярном сегменте игровых видеокарт стоимостью до $250. Разработчик сегодня представил очередную новинку – GeForce GTX 1660 SUPER. На первый взгляд технически несложным приемом калифорнийцам удалось повысить привлекательность своих устройств даного класса на базе чипов с архитектурой Turing. Модель интересна для тех, кто еще не решился на покупку видеокарты с трассировкой лучей и DLSS, но все же хочет за умеренную сумму обновить свою систему для комфортной игры в горячих осенних проектах. Возможности новинки мы рассмотрим, используя оригинальную модель серии – Palit GeForce GTX 1660 SUPER GamingPro OC 6GB.
NVIDIA GeForce GTX 1660 SUPER
Нынешний год оказался весьма продуктивным для NVIDIA. В середине лета компания обновила линейку GeForce RTX, представив Super-модификации популярных моделей RTX 2060/2070/2080. Пришло время для улучшений устройств серии GeForce GTX на базе чипов с архитектурой Turing. Несмотря на то, что видеокарты серий GeForce GTX 1660/1660 Ti были представлены только в начале весны, разработчики видят повод и возможность оптимизировать линейку, предложив версию GeForce GTX 1660 SUPER.
Итак, для новой видеокарты используется уже хорошо знакомый графический процессор TU116, в котором активировано 22 потоковых мультипроцессора (SM), включающих 1408 CUDA-ядер, 88 текстурных блоков и 48 растеризаторов. GPU точно такой же конфигурации используется для GeForce GTX 1660. Более того, в данном случае совсем не изменилась даже частотная формула GPU – 1530/1785 МГц. Однако в отличие от классической версии, модификация GeForce GTX 1660 SUPER получила чипы памяти GDDR6, вместо GDDR5 у младшей модели. Для микросхем нового стандарта используется высокая эффективная частота – 14 000 МГц, что совсем уж не характерно для устройств подобного класса. Даже у старшей модификации – GeForce GTX 1660 Ti – по умолчанию чипы работают на эффективных 12 000 МГц. Что касается общего объема памяти, то здесь без изменений – 6 ГБ, разрядность шины также сохранена – 192 бита.
GeForce GTX 1660 Ti | GeForce GTX 1660 SUPER | GeForce GTX 1660 | GeForce GTX 1060 | |
Наименование кристалла | TU116 | TU116 | TU116 | GP106 |
Графическая архитектура | Turing | Turing | Turing | Pascal |
Техпроцесс производства | 12 нм | 12 нм | 12 нм | 16 нм |
Площадь кристалла | 284 мм² | 284 мм² | 284 мм² | 200 мм² |
Количество транзисторов, млрд | 6,6 млрд. | 6,6 млрд. | 6,6 млрд. | 4,4 млрд. |
Тактовая частота GPU | 1500/1770 МГц | 1530/1785 МГц | 1530/1785 МГц | 1506/1709 МГц |
Потоковые процессоры | 1536 | 1408 | 1408 | 1280 |
Текстурные блоки | 96 | 88 | 88 | 80 |
Блоки растеризации | 48 | 48 | 48 | 48 |
Память (тип, объем) | GDDR6, 6 ГБ | GDDR6, 6 ГБ | GDDR5, 6 ГБ | GDDR5, 6 ГБ |
Шина памяти | 192 бит | 192 бит | 192 бит | 192 бит |
Эффективная тактовая частота памяти | 12 000 МГц | 14 000 МГц | 8000 МГц | 8008 МГц |
Пропускная способность памяти | 288 ГБ/c | 336 ГБ/c | 192 ГБ/c | 192 ГБ/c |
Энергопотребление, Вт | 120 Вт | 125 Вт | 120 Вт | 120 Вт |
Итак, после замены микросхем GDDR5 (8000 МГц) на GDDR6 (14 000 МГц) пропускная способность подсистемы памяти увеличилась на 75% – с 192 ГБ/c до 336 ГБ/c. Аналогичные показатели имеет стандартная GeForce RTX 2060. В общем, очень и очень внушительно. Разработчики заявляют, что после такого ускорения работы с памятью, можно ожидать общего прироста производительности до 20%, а преимущество над культовой GeForce GTX 1060 в этом случае может составлять до 50%.
Напомним, что GPU с архитектурой Turing получили выделенные аппаратные блоки для обработки целочисленных инструкций. В случае с TU116 для GTX 1660/1660 Super вычислительная способность чипа находится на уровне 5 TFLOPs для FP32 и те же 5 TFLOPs для целочисленных INT32.
Несмотря на то, что графический процессор TU116 производится компанией TSMC по 12-нанометровой технологии, видеокарты на его основе получаются весьма экономичными. GeForce GTX 1660 и GTX 1660 Ti укладываются в рамки теплового пакета в 120 Вт. Для новой GTX 1660 SUPER значение TDP увеличено до 125 Вт. Ускоренные чипы памяти требуют чуть больше энергии, но разница вполне допустимая, учитывая преимущества, которые сулит быстрая GDDR6.
В случае с GeForce GTX 1660 SUPER, разработчик не будет предлагать референсные устройства, полагаясь на инженерный потенциал производителей видеокарт. Последним также на этот раз не понадобится много усилий. Технологически простой апгрейд замены чипов GDDR5 на GDDR6 позволяет использовать уже имеющиеся дизайны печатных плат и систем охлаждения.
Рекомендованная цена GeForce GTX 1660 SUPER для американского рынка – $229. Очень привлекательный ценник на фоне того, что классическая GeForce GTX 1660 изначально оценивалась NVIDIA в $219, а GeForce GTX 1660 Ti – $279.
Для Украины рекомендованный для GeForce GTX 1660 SUPER ценник установлен на уровне 6990 грн. (~$280). Это значение стоит рассматривать лишь как условный ориентир, фактическая стоимость видеокарт будет зависеть от многих факторов.
Вместе с GeForce GTX 1660 SUPER компания анонсировала еще одну новинку обновленного семейства – GeForce GTX 1650 SUPER. Младшая представительница Super-серии получила удивительный апгрейд, в сравнении с классической GTX 1650. Данная версия вместо прежнего TU117 уже основана на чипе TU116. При этом функциональная конфигурация СUDA-ядер/текстурников/растеризаторов приобрела вид 1280/80/32 вместо прежней – 896/56/32. Шина памяти остается 128 битовой, но и здесь GDDR5 (8000 МГц) заменили на GDDR6 (12 000 МГц). После такого апдейта пропускная способность увеличилась со 128 ГБ/c до 192 ГБ/c (+50%). После такой тотальной модернизации, TDP видеокарты увеличился с 75 Вт до 100 Вт. Судя по результатам на представленном слайде, в некоторых случаях можно ожидать прироста производительности до 50%. Это самое мощное Super-усиление среди новинок серий RTX и GTX. Что же, производительность устройств в этом классе действительно стоило подтянуть.
Интригой пока остается рекомендованная цена. Видеокарты GeForce GTX 1650 SUPER появятся в продаже с 22-го ноября. Стоимость будет озвучена ближе к этой дате. NVIDIA сохраняет интригу и ожидает встречного хода от основного конкурента. Нужно признать, что графическая партия проходит очень увлекательно.
Вместе с аппаратными новинками NVIDIA предложила ряд программных улучшений для более эффективного использования возможностей видеокарт. Разработчик добавил в настройках драйвера параметр Image Sharpening, позволяя повышать резкость картинки без потерь производительности.
Ранее такая возможность появилась в виде фильтра из набора Freestyle, доступного через GeForce Experience. Теперь же эта опция перекочевала в панель управления NVIDIA. Такой вариант гораздо удобнее и проще в настройке. В опциях можно выбрать степень усиления резкости, причем можно задать этот параметр глобально или индивидуально для каждого проекта. Функция доступна для всех игр с API DirectX 9/11/12.
Технология хорошо работает, повышая резкость изображения. Она наверняка понравится любителям «звенящей» картинки. Важно, что интенсивность можно корректировать, потому как слишком резкие текстуры также не всегда во благо.
Такая возможность может быть также полезна, например, для игр на 4К-мониторе с понижением разрешения. В этом случае при интерполяции резкость картинки естественно снижается, а с помощью Image Sharpening это можно частично компенсировать. В общем хорошая альтернатива технологии Radeon Image Sharpening от AMD.
Очередное обновление получила технология снижения задержек отрисовки очередного кадра Ultra Low Latency. На этот раз разработчики постарались устранить возможные нюансы при использовании функции одновременно с активированной технологией G-Sync.
NVIDIA также добавила набор фильтров ReShade, которые теперь можно использовать для Freestyle и Ansel, вызываемых оверлеем во время игры. Набор фильтров зависит зависит от игры. В частности графические оптимизации не должны влиять на результаты в соревновательных играх, потому в таких проектах перечень «улучшайзеров» ограничен. Для активации возможностей Freestyle и Ansel понадобится использовать GeForce Experience.
Palit GeForce GTX1660 Super GamePro OC 6G
К моменту официального старта продаж GeForce GTX 1660 SUPER компания Palit подготовила несколько моделей. К нам попала старшая версия линейки – Palit GTX1660 Super GamePro OC 6G.
от 23 999 грн
Предложений: 3
Для видеокарты предусмотрен заводской разгон графического процессора. Вместо рекомендованных 1530/1785 МГц, GPU получил частотную формулу 1530/1830 МГц. Локальная память работает на штатных 14 000 МГц.
На момент подготовки материала диагностическая утилита GPU-Z еще не вполне корректно распознавала новинку, однако основные технические характеристики видеокарты отображены на скриншоте.
Видеокарта предлагается в компактной коробке. В комплекте лишь краткое руководство по установке устройства.
Внешен видеокарта очень напоминает Palit GeForce GTX 1660 Ti DUAL. Это двухслотовый адаптер средних габаритов длиной 236 мм.
Для устройства используется оригинальный кулер, включающий наборную кассету из алюминиевых пластин, пронизанных парой тепловых трубок. Элементы силовой подсистемы и чипы памяти контактируют с основным охладителем через теплопроводящие прокладки.
Радиаторный блок продувается двумя 90-миллиметровыми вентиляторами осевого типа с полупрозрачными лопастями. Сверху видеокарту прикрывает пластиковый кожух с несложным декоративным оформлением.
Для подключения дополнительного питания видеокарты предусмотрен один 8-контактный разъем. NVIDIA рекомендует использовать для систем с GeForce GTX 1660 SUPER использовать блоки питания мощностью от 450 Вт. Такие же требования указаны и на упаковочной коробке рассматриваемой модели.
Тыльная сторона адаптера прикрыта пластиковой крышкой с исключительно декоративной функцией. Панель закрывает печатную плату, что добавляет целостности внешнему виду устройства. Это может иметь значение если используется корпус с прозрачной боковой стенкой.
На интерфейсную панель выведены три видеовыхода – полноразмерные DisplayPort, HDMI и DVI-D. Последний все реже встречается на новых видеокартах, но для тех кто не планирует менять свой возрастной монитор, такой порт позволяет обойтись без дополнительных переходников.
Примерно две трети панели обильно перфорированы крупными ячейками для вывода нагретого воздуха за пределы системного блока. Учитывая продольную ориентацию алюминиевых пластин радиатора такая конструкция заглушки вполне оправдана – часть воздуха изначально выдувается вентиляторами видеокарты.
Palit GTX1660 Super GamePro OC 6G не осталась без декоративной подсветки. На верхней кромке под крупной надписью GeForce GTX расположен сегмент со световодом, который подсвечивается белым.
Режимы работы иллюминации можно настроить в фирменном приложении Palit Thunder Master. Возможностей здесь не так много. Регулируется яркость свечения, доступная опция с пульсацией, а также изменением интенсивности в зависимости от температуры GPU. Также можно отключить подсветку.
В работе
В режиме покоя видеокарта не останавливает вентиляторы системы охлаждения. По умолчанию они вращаются со скоростью порядка 1000 об/мин.
Уровень издаваемого шума минимальный, вряд ли они будут слышны в закрытом корпусе. Учитывая активное охлаждение, температура GPU в простое едва превышает 30С.
Под игровой нагрузкой на открытом стенде графический процессор прогревался всего до 65С. При этом скорость вращения вентиляторов на пике увеличивалась вплоть до 2000 об/мин.
Согласно заданному алгоритму, скорость вращения вентиляторов повышается до 76% от максимума при достижении температуры чипа в 63С. На наш взгляд, эффективности используемого кулера достаточно, чтобы без последствий снизить обороты, не опасаясь перегрева GPU.
Для этого можно воспользоваться той же утилитой Thunder Master, где есть возможность вручную установить график зависимости скорости вращения вентиляторов от температуры процессора. При желании здесь можно поэкспериментировать. Финальные цифры будут зависеть от условий использования видеокарты. Логично будет подобрать такой алгоритм, при котором GPU не будет нагреваться выше 70–75С. Здесь результаты будут зависеть от общих условий охлаждения компонентов внутри корпуса. Опять таки, на открытом стенде при максимальных ~1600 об/мин температура GPU поднималась до 70–72С.
Благодаря работе динамического авторазгона GPU Boost, графический процессор под нагрузкой ускорялся до 1965 МГц. В среднем рабочие частоты были все же пониже – 1880–1920 МГц.
Разгон GeForce GTX 1660 SUPER
Конечно нам интересно было оценить разгонный потенциал потенциал GeForce GTX 1660 SUPER. Графический процессор TU116 зачастую уверенно берет планку в 2000 МГц под нагрузкой. Учитывая базовые значения и даже заводское ускорение модели от Palit, чип наверняка имеет дополнительный потенциал.
По результатам экспериментов начальное значение частоты удалось увеличить до 1620 МГц (+5,8%). При этом среднее ускорение повысилось с 1830 до 1920 МГц.
Нам также удалось очень неплохо ускорить чипы памяти. Микросхемы GDDR6 работали на 15 800 МГц вместо штатных 14 000 МГц. Итоговые 380 ГБ/c – внушительная пропускная способность для видеокарты такого класса. Это вдвое больше, чем у GeForce GTX 1660. Дополнительные +13% к эффективной рабочей частоте чипов памяти наверняка скажутся на производительности.
После дополнительного разгона, температура GPU под нагрузкой повысилась до 69С, а пиковая скорость вращения вентиляторов увеличилась до 2100 об/мин. Скорость вращения можно корректировать, но тут стоит следить за увеличивающейся температурой чипа при форсаже.
Производительность
Учитывая технические характеристики GeForce GTX 1660 SUPER, основной интригой в появлении этой модели было то, какое место она займет в табели о рангах устройств на базе Turing. Даже без практических экспериментов можно было предположить, что производительность Super-версии окажется между таковой для классической GTX 1660 и GTX 1660 Ti, но вот фактическое соотношение сил все же было очень любопытно.
Для наглядности мы также добавили результаты GeForce GTX 1070 8 ГБ – очень удачной модели класса middle-top на базе GPU с архитектурой Pascal. Видеокарта представлена 3,5 года назад и была очень желанной покупкой для тех, кто готов тратить на видеокарту порядка $400.
В списке участников экспресс-теста недостает представителя от AMD. Здесь была бы уместной Radeon RX 590 8 ГБ. С этой моделью зачастую уверенно соперничает GeForce GTX 1660 6 ГБ, тогда как ускоренная Super-версия очевидно смогла бы подтянуть производительность в проектах, где чуть выигрышнее смотрится решение AMD.
«Междусобойчик» NVIDIA мы начинаем с результатов 3DMark Time Spy. Начало очень даже многообещающее. В стоковом варианте GeForce GTX 1660 SUPER всего на 5% уступила GeForce GTX 1660 Ti, опередив обычную версию на 12%. GeForce GTX 1070 в этом DX12-тесте смогла опередить лишь базовую GTX 1660. Однако это все же оптимистичная синтетика, посмотрим на положение дел в реальных играх.
Первые замеры показывают, что соотношение сил представительниц серии GTX 1660 примерно сохраняется на том же уровне. Super-модификация тяготеет к показателям GTX 1660 Ti, имея заметное преимущество над обычной версией. Очевидно, что пропускная способность памяти в этой конфигурации GPU заметно сдерживает общий потенциал видеокарты.
Заводской разгон рассматриваемой видеокарты Palit приносит дополнительный буст на уровне 2–3%. А вот дополнительный ручной разгон с форсированием GPU и чипов памяти может увеличить показатели GTX 1660 Super на 5–10% (в среднем – 8,2%). И этого оказывается достаточно для того, чтобы в большинстве игр такая версия оказывалась быстрее остальных участников теста.
С помощью умеренного разгона вполне реально получить результаты GeForce GTX 1660 Ti. Тюнингованные версии видеокарт в штатном режиме не будут получать подобного ускорения, но если самому озаботиться разгоном, это вполне реально. NVIDIA в последнее время старалась не допускать ситуаций, в которых младшая модель линейки была бы способна дотянуться до показателей следующего устройства серии, которое стоит дороже.
Появление GeForce GTX 1660 SUPER можно назвать атипичной ситуацией и наверняка это не просто желание производителя оптимизировать свою линейку. Градация моделей GTX 1660 и GTX 1660 Ti в плане цены и производительности изначально была вполне приемлемой. Острой необходимости выпускать Super-версию, которая по производительности тяготеет к GTX 1660 Ti, а цене – к GTX 1660, наверняка не было. Вернее, она назревала, но совсем по иной причине. Это похоже на подготовку к появлению в этом сегменте новых решений от конкурента на базе чипов Navi с архитектурой RDNA.
Total War: Three Kingdoms и Borderlands 3 показали, что есть еще проекты в которых GeForce GTX 1070 8 ГБ может продемонстрировать свои сильные стороны. Конечно, это если не учитывать тот факт, что она заметно дороже дерзких новичков на Turing, а модели серии GTX 1660 в целом скорее являются заменой для GeForce GTX 1060. Просто так получилось, что из-за своих возможностей они могут «подсиживать» даже устройства предыдущего поколения классом повыше. Кстати, это наглядный пример прогресса дискретной графики, на который не всегда обращаешь внимание. Новые видеокарты за $229 на равных тягаются с моделями за $379, представленными 3,5 года назад.
Энергопотребление
В рамках тестирования мы замеряли общее энергопотребление платформы под игровой нагрузкой. Полученные значения представлены на диаграмме.
Ожидаемо самой экономичной оказалась базовая версия GeForce GTX 1660. Несмотря на идентичный TDP в 120 Вт, на 10–15 Вт больше расходует GeForce GTX 1660 Ti. Еще на 5 Вт больше энергии требовала GTX 1660 SUPER. Тепловой пакет новинки не случайно увеличен до 125 Вт – этого явно потребовали скоростные чипы памяти GDDR6, работающие на эффективных 14 000 МГц. Дополнительный разгон GPU/памяти также увеличивает потребление на 10–15 Вт.
При заявленном TDP в 150 Вт, видеокарта GeForce GTX 1070 расходует заметно больше энергии, чем экономичное семейство GTX 1660. Речь о дополнительных 40–50 Вт. Налицо еще один пример улучшения энергоэффективности Turing.
Итоги
GeForce GTX 1660 SUPER стала приятным сюрпризом осеннего игрового сезона. Эффектным техническим приемом NVIDIA удалось заметно улучшить привлекательность своих решений среднего уровня. Скоростная память GDDR6 позволила новинке приблизиться к показателям GeForce GTX 1660 Ti, заметно (~10–15%) опередив классическую модель GeForce GTX 1660 с чипами GDDR5. Учитывая стоимость и возможности Super-версии, первым моделям на TU116 явно понадобится дополнительная уценка. Стоит отметить и программные апдейты NVIDIA. «Звенящую» картинку повышенной резкости теперь можно получить без потерь производительности и сложных настроек, а любители визуальных эффектов получили возможность в экспериментировать с фильтрами ReShade.
Плюсы: Отличное соотношение производительность/цена; хорошие возможности для игр в режиме Full HD с высоким качеством графики; эффективная система охлаждения; отвод тепла от элементов VRM и чипов памяти; заводской разгон; потенциал для дальнейшего ускорения; дополнительная подсветка
Минусы: Скорость вращения вентиляторов под нагрузкой желательно снизить (можно настроить самостоятельно)
Вывод: Рассмотренная версия GeForce GTX 1660 SUPER от Palit в целом производит хорошее впечатление. Субъективно для адаптера нужна лишь небольшая корректировка алгоритма работы кулера под нагрузкой. Процедуру легко можно провести с помощью комплектной утилиты Thunder Master. В остальном, все вполне на уровне. Стартовый заводской разгон приносит пару-тройку дополнительных кадров/с, а потенциал для дальнейшего ускорения позволяет оставить позади таких грозных оппонентов как GeForce GTX 1660 Ti и GeForce GTX 1070. Стоимость модели вскоре можно будет узнать на hotline.ua, но наверняка она будеть чуть ниже, чем у схожих моделей других вендоров. В любом случае в начале продаж не стоит ожидать $229 даже с поправкой на налоги и логистику, здесь нужно будет время для снижения стартового ажиотажа.
Технические характеристики
Palit GeForce GTX 1660 Super GamingPro OC (NE6166SS18J9-1160A) 23 999 — 25 999 грн Сравнить цены | |
---|---|
Тип | Видеокарта |
Производитель GPU | NVIDIA |
GPU | GeForce GTX 1660 SUPER |
Объем памяти, ГБ | 6 |
Тип памяти | GDDR6 |
Интерфейс | PCI Express 3.0 x16 |
Система охлаждения | активная |
Дизайн системы охлаждения | фирменная |
Бэкплейт | + |
Остановка вентиляторов в простое | — |
Частоты работы GPU, МГц | 1530 (Boost — 1830) |
Частоты работы памяти, МГц | 14000 |
Шина памяти, бит | 192 |
Выходные разъемы | 1xDual Link DVI-D (HDCP), 1xHDMI (2.0b), 1xDisplayPort (1.4) |
Размеры, мм | 235x115x40 |
Низкопрофильная | — |
Дополнительное питание | 1x8pin |
Потребляемая мощность, Вт | 125 |
Рекомендуемая мощность блока питания, Вт | 450 |
Поддержка DirectX | DirectX 12 |
Максимальное поддерживаемое разрешение | 7680×4320 |
Разное | NVIDIA Turing, NVIDIA Highlights, NVIDIA Ansel, NVIDIA G-SYNC |
NVIDIA GeForce GTX 1660 Ti
Общая информация | |
Разработчик | NVIDIA |
Год выхода | 2019 |
Категория видеокарты | Десктопная |
Тип видеокарты | Дискретная |
Интерфейс | PCIe 3.0 |
Максимальное разрешение | 7680×4320 |
Графический процессор | |
Архитектура | Turing |
Ядро | TU116 |
Количество чипов | 1 |
Техпроцесс | 12 nm |
Количество транзисторов | 6600 млн |
Площадь | 284 мм² |
Частота ядра | 1500 — 1770 MHz |
Универсальных шейдерных блоков | 1536 |
Блоков растеризации (ROP) | 48 |
Текстурных блоков (TMU) | 96 |
Пиксельная скорость заполнения (pixel fillrate) | 85.0 GPixel/s |
Текстурная скорость заполнения (texel fillrate) | 169.9 GTexel/s |
Видеопамять | |
Тип | GDDR6 |
Объем | 6144 Mb |
Частота | 12000 MHz |
Ширина шины | 192 bit |
Пропускная способность | 288.0 GB/s |
Питание | |
Макс. потребляемая энергия (TDP) | 120 W |
Макс. допустимая температура | 95° C |
Мин. требования к блоку питания | 450 W |
Разъемы дополнительного питания | 8-pin |
Поддерживаемые API и технологии | |
DirectX | 12.0 (12_1) |
OpenGL | 4.5 |
OpenCL | 1.2 |
Shader Model | 6.2 |
Другие технологии | • VR • NVIDIAAnsel • NVIDIA G-Sync • NVIDIA GPU Boost • Vulkan API • HDCP • NVIDIA Highlights • GeForce Experience • DirectX Raytracing |
Geforce gtx 550 ti рабочая температура
Следует отметить, что системы измерения температуры, применяемые в видеокартах, не отличаются точностью. Во-первых, только в ядре NV43 и более поздних система термомониторинга была полностью интегрирована в чип, в более ранних графических процессорах была зависимость от внешних компонентов, что оставляло место для ошибок в разводке производителями видеокарт. Во-вторых, разрядность АЦП, используемых в большинстве систем термомониторинга, явно недостаточна для измерения с точностью до градуса, и реальные значения температуры получаются интерполяцией или с помощью таблиц поправочных коэффициентов. В-третьих, в самих таблицах пересчета нередко содержатся ошибки. Так, драйверы NVIDIA версий 7Х.ХХ завышали отображаемую температуру на 20% от реальной для карт семейства GeForce 6X00. Эта ошибка была исправлена начиная с версий 71.89 и 76.45. Ошибки также имелись во многих версиях приложения ASUS SmartDoctor, что приводило к нереально высоким сообщаемым значениям температуры ядра на видеокартах серии V9999. Также, в BIOS первых видеокарт на базе графических процессоров G92 (GeForce 8800 GT, 8800 GTS 512) вообще отсутствовали таблицы пересчета показаний встроенного термодиода, из-за чего снимаемые с него утилитой ASUS SmartDoctor показания имеют погрешность порядка десяти градусов.
Так что высокие значения температуры, сообщаемые драйвером и утилитами, сами по себе не являются признаком перегрева, ориентироваться следует на искажения и остановки изображения, свидетельствующие о нестабильной работе видеокарты.
Комментарии
- Fedya Levitan 7 ноября, 21:38
АIDA сообщает что у меня GeForce GT 610 в простое имеет 70 градусов ?
Anyuta Kovalevskaya 10 июля, 22:30
Какой предел у Palit GeForce GT740 1GB ? В играх поднимается до 70 градусов
- Misha Ordyntsev 14 июля, 19:59
Эммм, я знаю только то, что для GTX760 это было 90 градусов (я бывший владелец версии от Gigabyte).У меня RX570 от Aorus на 4гб нагревается до 76, хотя предел уже 100 градусов
Ilya Kotov 19 мая, 16:30
Видеокарта gtx 550 ti
Ilya Kotov 19 мая, 16:30
Температура в играх подымается до 94 градусов в спокойном состоянии температура 40 градусов, замены термопасты не было.
- Misha Ordyntsev 14 июля, 20:00
Platon Sanzhanov 17 марта, 22:15
У меня gtx 970 4gd5 в фур марке покрывает температуру 80 градусов, термопасту менял, не помогло.
Vladimir Shram 2 марта, 13:16
geforce gt 755M 80+ температура в FurMark что делать, норм это.
Ivan Rybin 19 февраля, 19:06
1060 видяха в фур марке 82 градуса в стрессе и больше не поднимается. Нормально?
- Igor Shevchenko 22 февраля, 09:42
Vladimir Yakovlev 19 января, 18:55
Какой предел температуры у Nvidia GT 630M ?
Emirkhan Tashtemirov 7 ноября 2018 года, 14:14
у меня максимум до 67 поднималась все когда пойду раскручивать видюху на максимум надеюсь не сгорит)
Alexey Shevtsov 25 сентября 2018 года, 23:32
Для Nvidia 1080 72 градуса нормально после катки в пабг?
- Maxim Pozyukov 26 сентября 2018 года, 11:32
более чем.до 80 градусов считается норм.Только после 80 троттлинг начинается.
Sanya Nikulin 17 сентября 2018 года, 19:52
PNY 1060 3 gb в танках на ультра настройках 83 градуса стоит беспокоиться?
Sasha Ivanov 6 мая 2018 года, 15:48
народ, ответьте пожалуйста сюда или в личку. На ноутбуке видеокарта GT 920M под нагрузкой большой греется до 85 градусов. Это нормально?
- Igor Shevchenko 6 мая 2018 года, 16:52
Может и нормально, но не очень хорошо. Лучше снизить температуру до 70-75С.
Unkas Suresh 15 февраля 2018 года, 09:42
Цитата: «Так что высокие значения температуры, сообщаемые драйвером и утилитами, сами по себе не являются признаком перегрева, ориентироваться следует на искажения и остановки изображения, свидетельствующие о нестабильной работе видеокарты.» ??
- Евгений Биисов 24 июня 2016 года, 11:27
960GTX,проверял программой FurMark,при сглаживаний Х8 MSAA при полной загрузке винта.температура 82,не прыгает.Хотя охлаждение там не очень,т.к турбина.А в простое показывает 40 градусов.
Vladislav Romarov 8 июня 2016 года, 10:42
GTX 850M — 91-100 градусов. Ща показыает 97. Норма ?!
- Деня Бесараб 22 июня 2016 года, 21:43
нет конечно почисть комп
Иван Петров 3 июня 2016 года, 17:26
на моей 840m не превышало по показателям 90-91 градус по Цельсию, даже когда играл с полной нагрузкой на нее и с выключенным кулером, что за бред? картинка не искажалась в течении 5-10 минут, пока я сам не включил кулер обратно, она сбавилась сразу до 50 за минуту, это норма или как? является это какой-либо ошибкой?
Вячеслав Откатов 23 октября 2015 года, 01:46
GT 630 в игре 65 градусов..это норма?
Федор Шумаков 25 августа 2015 года, 20:02
У меня было что видеокарта работала 115 градусов в течении года
- Олег Кисляк 30 мая 2016 года, 19:38
То были Фаренгейты.
DELETED 18 июля 2015 года, 17:49
Видео карта GeForce 9600 GT, Температура без нагрузки 85! С нагрузкой почти 100 выдает по инфе MSI Afterburner Что делать? Это началось недавно,такого раньше небыло
- David Korneev 3 декабря 2015 года, 18:05
Дибир, 45-50 когда играешь? или без нагрузок 45-50?
Дибир Магомедов 3 декабря 2015 года, 18:06
David, когда играю 55-60 максимум
David Korneev 3 декабря 2015 года, 18:07
Дибир, ну думаю у тебя лучше термопаста и система охлаждения
Дибир Магомедов 3 декабря 2015 года, 20:54
David, ну у меня 3 Винтелятора?
David Korneev 3 декабря 2015 года, 21:02
Алексей Яковлев 19 мая 2015 года, 17:21
msi geforce gtx 760 102 градуса в The Elder Scrolls V: Skyrim это норм? она у меня молодая года нет пасту менял в тех сервисе )))))))
- Дибир Магомедов 31 июля 2015 года, 14:15
У меня тоже GTX760 102 градуса это критически,значит не правильно поменяли и поменяли ли вообще
Александр Байрак 8 марта 2015 года, 13:56
у меня цп 68 градусов,правда комп старенький,что скажите?
- Дибир Магомедов 31 июля 2015 года, 14:15
Максим Жаров 24 декабря 2014 года, 20:53
GeForce GT610 у меня 95 градусов поднялось это нормально ?
Кирилл Кочкин 18 октября 2014 года, 22:43
У меня Видюха Nvidia Geforse gt 630 температора при игре в скайрим на ультрах 44гр по цельсию это норм?
- Андрей Ногинский 13 февраля 2015 года, 16:13
Конечно,у вас хорошее охлаждение
Евгений Вячеславович 9 марта 2014 года, 20:39
играл в sleeping dogs и mafia 2 (примерно по 20 мин на средних настройках) t видюхи 90-92 гр. — это НОРМ? samsung rc530 проц i7 geforce gt 540m (дрова 332.21, обновлял до следующего пакета, т.е до 334.89, но мне показалось, что новые дрова хуже, поставил обратно 332.21) оперативы 6 Гб чистил от пыли и менял термопасту примерно 2-2.5 месяца назад подставки нету блеадь! а когда то мог играть в какую-нибудь мощную игруху на max и попутно устанавливать еще одну!
- Дмитрий Елисеенков 10 марта 2014 года, 20:23
Слишком высокая температу чувак..
Дмитрий Елисеенков 10 марта 2014 года, 20:32
Ты менял терма пасту в материнке. и в видюххе..
Дмитрий Елисеенков 8 марта 2014 года, 09:38
GPU температу 50 Geforce gtx 260 температу 50 Стaбильная температура??
Анатолий Рубаненко 16 апреля 2013 года, 13:33
MSI GeForce GT610 1024Mb GDDR3 810Mhz при том же Мост Вантеде или в МоН 99градусов без обдува. если с обдувом то стабильно 80 градусов через ЭВЕРЕСТ. . в предыдущей карте GT7950 было до 105 градусов. со временем карта загнулась. датчик не врёт! (на пальцах ожог от радиатора горячего )) )
Selected Dreik 9 апреля 2013 года, 16:40
правда у нее в спокойном состоянии на рабочем столе, средняя температура 60 градусов по ц.
Selected Dreik 9 апреля 2013 года, 16:39
GTX 580, во время прохождения игры Биошок Инфинити, однажды обнаружил температуру около 120 градусов по ц. В целом ничего ужасного не случилось, возможно из-за этого были небольшие лаги время от времени, но ничего серьёзного, впрочем хотелось бы уменьшить риск плохо исхода для моей видюхи.
Павел Цаль 6 января 2013 года, 16:35
у меня до 117 нагрелась на отсасине 3 и на WoT начало лагать дичь как. Вначале я подумал что все серьезно. Взял в руки пылесос включил его в розетку все почистил, пальцем кулер покрутил и ништиак теперь температру от 40 до 60 но это с открытой крышкой а так лучше мазать пастой какойто а я ваще возле блока 2 бутылки со льдом и Ваще ништиак
Дмитрий Винокуров 3 января 2013 года, 01:16
Карта NVidia 9600 (Aser 6935) греется на танкионлайн до 105 и вырубается. Носил в сервис поменять термопасту, сделали тест Аида64 больше 50 не грелась, сказали что все нормально. Дома поиграл в танки 10 минут и вырубается, подскажите что делать?
Sash Skvoretc 7 ноября 2012 года, 02:06
У меня на NVidia 9600 GT (кулер разработчики пожадовали поставить на радиатор) реальная температура во время игры допустим в МоН 3 порядка 45 С. Даже на ощупь просто немного теплая. Весь фокус в установке доп. кулера от старого интеловского процессора. Очаровательно держиться на радиаторе без дополнительного крепления. Но есть минус: шумит зараза. Воткнул в разъем кулера охлаждения БП. «Мама» ASUS P5Q.
Семён Зарецкий 2 ноября 2012 года, 17:41
на GTX 550 Ti во время игры в Most Wanted 2012 на экране цветные полосы, и игра вылетела. посмотрел t с помощью AIDA64 — 50 градусов (до запуска t была 30 с чем то град.). на старой (8800GT) такие симптомы были когда происходил отвал процессора, но благополучно ремонтировал 2 раза. а эта видюха новая. и 50 градусов очень уж малый показатель критической температуры (учитывая что игрушка требовательная и карта нагревается быстро) да и если отвал процессора — не лучше ситуация((
- Игорь Шевченко 10 ноября 2012 года, 06:21
50 — это не серьёзно.
Надо на форуме детально описать проблему. С описанием железа, софта и т.д. Тогда можно будет что-то сказать.
Мунзир Зокиров 5 декабря 2015 года, 19:36
всем привет! У меня Gt 755m играю ведьмака 3 температура поднялась до 93 градусов, а температура цп-63 градуса. это норма?
Евгений Биисов 24 июня 2016 года, 11:30
Если полосы цветные и вылет,то может видяха накрылась.а полосы это артефакты.
Фанка Карпович 17 сентября 2012 года, 21:17
к примеру у GeForce 6600 тротлинг со 111 начинается (судя по данным в bios), в моем ноуте стояла GeForce 7400 Go у нее тротлинг начинался с 85 у домашнего компа стоит GeForce 9600 GT (по данным NiBiTor 6.06)критическая температура 105
Фанка Карпович 17 сентября 2012 года, 21:07
у каждой видеокарты немного по разному
Алексей Алиханов 5 сентября 2012 года, 19:57
у меня Gforce GT 320 температура в обычном режиме 38-51 а в игре до 60-75 это нормально .
Александр Фролов 3 июля 2012 года, 12:22
У меня на WinFast GF 8800 GTS 320Мб после 80С начинались глюки.
Игорь Перебейнос 21 февраля 2012 года, 14:36
Вообще, при температуре от 100 градусов начинается деградация полупроводниковых элементов, из которых, собственно, и состоят процессоры GPU и CPU. Также резко ухудшаются их физические свойства, а также снижается отказоустойчивость.
Привет, друзья! Как вы, вероятно, знаете, любая электроника греется во время работы, поэтому для некоторых устройств нужна мощная система охлаждения. Сегодня я расскажу какая нормальная температура видеокарты и как узнать этот параметр.
p, blockquote 1,0,0,0,0 —>
От чего зависит температура и на что влияет
Рабочая температура этого устройства, в первую очередь, зависит от используемого графического процессора – чем он мощнее, тем и больше нагревается. Так, 1070 выделяет при работе больше тепла, чем, например, 1050 или 1050 Ti.
p, blockquote 2,0,0,0,0 —>
Соответственно, такое устройство требует более совершенной системы охлаждения. Поэтому в видеокартах от разных брендов, у которых есть конструкционные различия, из‐за разного охлаждения может быть разная температура.
p, blockquote 3,0,0,0,0 —>
Объем видеопамяти и ее тактовая частота на нагрев устройства фактически не влияет: например, GTX 1060 Ti 6g будет нагреваться не больше, чем GTX 1060 3gb – при условии, что система охлаждения одинаковая и поэтому одинаковый теплоотвод.
В отношении к устройствам производства AMD, вышеперечисленные факторы действуют так же. При этом не замечено, что несмотря на разную архитектуру ATI Radeon или Nvidia GeForce, греются больше: конструкционно эти две марки, все‐таки похожи.
p, blockquote 5,0,0,0,0 —>
Следует учитывать, что устройства с пассивной системой охлаждения, то есть лишенные вентиляторов, греются сильнее, хотя и не такие мощные. А у жидкостной системы охлаждения, теплоотвод лучше, поэтому оборудованная ею видеокарта, будет греться меньше, чем устройство с одним или несколькими кулерами, даже самыми мощными.При повышении рабочей температуры выше нормальной, во время работы устройства наблюдается снижение производительности. В играх возможны падение FPS и зависания, а также в любом режиме сторонние артефакты – мерцающие точки или полосы.
p, blockquote 6,0,0,0,0 —>
При критическом перегреве, возможен вылет в «синий экран» или перезагрузка компьютера. Если регулярно наблюдаются подобные явления, необходимо проверить температуру и провести меры по ее снижению. Хронический же перегрев чреват полной потерей работоспособности устройством.
p, blockquote 7,0,0,0,0 —>
Нормальная температура в разных режимах
В простое, считается нормальной температура не более 50 °С. Если результаты тестов показывают выше, то либо устройство работает неправильно, либо даже в этом режиме выполняет какие‐то операции.
p, blockquote 8,0,0,0,0 —>
В этих случаях частое явление – майнер, внедренный в ОС в виде вируса либо такой же «зловред» на каком‐либо сайте, который фармит криптовалюту для его владельца, без позволения посетителя.
p, blockquote 9,1,0,0,0 —>
При повышении нагрузки, рабочая температура может возрасти до 80 °С. Максимальная же не должна превышать 90 °С. Так что если ваша видеокарта греется до 70 градусов при запуске игр или специфического софта, то это нормально: такая температура считается нормальной при игре.
p, blockquote 10,0,0,0,0 —>
То же самое и при майнинге, так как удаленные вычисления по сути ничем не отличаются от рендеринга графики: на графический процессор подается такая же нагрузка.
p, blockquote 11,0,0,0,0 —>
Оптимальная же температура должна быть 60 °С, однако этим могут похвастаться только устройства с эффективной системой охлаждения.
p, blockquote 12,0,0,0,0 —>
Как узнать температуру GPU
Самый простой способ – установить бесплатную утилиту HWmonitor. Она будет полезна тем, что позволяет также определить рабочую температуру чипсета, процессора и жестких дисков. Программа отображает ее в градусах Цельсия и Фаренгейта. Отображается три параметра: текущая, а также минимальная и максимальная, что удобно для проведения тестов. Несмотря на англоязычный интерфейс, пользоваться утилитой несложно – здесь нет никаких опций и настроек, кроме мониторинга интересующих параметров.
p, blockquote 13,0,0,0,0 —>
Как ее снизить
Под влиянием обстоятельств, может потребоваться снизить рабочую температуру при нагрузке. Можно воспользоваться как одним из нижеперечисленных способов, таки всеми сразу:
p, blockquote 14,0,0,1,0 —>
- Полностью почистить от пыли внутренности системного блока, включая видеокарту. Лучше циркуляция воздуха – эффективнее охлаждение. Не рекомендуется использовать для этой цели пылесос или фен с металлической насадкой – только пластик. Разряд статического электричества может пробить на плату и стать причиной выхода из строя одной или нескольких деталей.
- Установить дополнительные вентиляторы внутри корпуса, что улучшит циркуляцию воздуха. Учитывайте, что также усилится издаваемый компьютером шум. Пропеллеры нужно ставить на выдув, а не на вдув, чтобы комп не поглощал всю пыль, которая летает по комнате.
- Выключить авторазгон в настройках видеокарты. Меньше мощность – меньше нагрев.
- Установить более мощную систему охлаждения – убрать старый стоковый вентилятор и установить получше или, как вариант, жидкостную систему охлаждения. Следует помнить, что дешевые пропеллеры менее эффективны, чем «родные» и предназначены в первую очередь, для устройств с пассивной системой охлаждения.
- Поменять термопасту между графическим процессором и радиатором. Если видеокарта эксплуатируется уже некоторое время, возможно, старая термопаста попросту высохла.
Вот, собственно, и все эффективные методы, которые я знаю. Если вам есть что добавить – не стесняйтесь, обсудим в комментариях. Также советую почитать публикации про игровые бюджетные видеокарты и сколько стоит хорошая видеокарта для игр. Актуальный рейтинг видеокарт для ПК вы найдете здесь.
p, blockquote 15,0,0,0,0 —>
И традиционно рекомендация по поводу комплектующих. Советую обратить внимание на видеокарту ASUS STRIX‐GTX1050TI‐O4G‐GAMING –далеко неплохое устройство, за свои деньги.
p, blockquote 16,0,0,0,0 —>
Спасибо за внимание и до следующих встреч на страницах моего блога. Не забывайте поделиться этой публикацией в социальных сетях и подписаться на новости!
p, blockquote 17,0,0,0,0 —>
p, blockquote 18,0,0,0,0 —> p, blockquote 19,0,0,0,1 —>
Рекомендуем к прочтению
Обзор видеокарт на базе NVIDIA GeForce GTX 1070 Ti от ASUS, Gigabyte и MSI. Заполняя ниши
15.12.17
Видеокарты GTX 1070 Ti представили недавно. Они заняли нишу между GTX 1070 и GTX 1080. Разбираемся, зачем NVIDIA понадобилась еще одна модель на архитектуре Pascal и рассматриваем несколько новинок на базе GTX 1070 Ti от разных производителей
Смотрите в этой статье:
Сравнение референсных характеристик видеокарт NVIDIA GeForce GTX 1070, 1070 Ti и 1080
Сводная таблица характеристик представленных в тесте видеокарт на базе NVIDIA GeForce GTX 1070 Ti
Видеокарта Gigabyte GeForce GTX 1070 Ti Gaming 8G
Видеокарта MSI GeForce GTX 1070 Ti GAMING 8G
Видеокарта ASUS ROG STRIX GeForce GTX 1070 Ti Advanced edition
Описание тестового стенда и методики тестирования
Гистограммы с результатами тестов
В серии видеокарт GTX 10XX линейка моделей от среднего к высокому классу у NVIDIA была выстроена довольно равномерно. Между GTX 1060, 1070, 1080, и 1080 Ti заметны четкие ступени в производительности.
Но недавно NVIDIA представала еще одну модель — GTX 1070 Ti. Она построена на базе все той же архитектуры NVIDIA Pascal, как и другие адаптеры серии GTX 10XX, и заняла место между GTX 1070 и GTX 1080.
Любопытно, что с момента появления первой видеокарты на архитектуре Pascal (GTX 1080) и до появления GTX 1070 Ti прошло уже полтора года.
Принципиально нового в GTX 1070 Ti ничего нет. В плане набора функций и поддержки технологий обладает теми же особенностями, что и другие модели данной серии.
Сравнение референсных характеристик видеокарт NVIDIA GTX 1070, GTX 1070 Ti и GTX 1080
Если сравнить NVIDIA GeForce GTX 1070 Ti с GTX 1070 и GTX 1080, то можно заметить, что по характеристикам графического процессора (количество шейдерных процессоров, текстурных блоков) новинка ближе к GTX 1080, но тип памяти и частота памяти такие же как у GTX 1070. GTX 1070 Ti и GTX 1070 используют память GDDR5 в то время, как GTX 1080 оснащается более продвинутой GDDR5X.
Зачем NVIDIA понадобилась еще одна видеокарта серии GTX 10XX?
Одной из возможных причин появления GeForce GTX 1070 Ti можно назвать усиление конкуренции в секторе высокопроизводительных видеокарт, связанной с появлением у конкурента новых адаптеров AMD Radeon RX Vega 56 и RX Vega 64.
Возможно, NVIDIA таким образом решила немного себя подстраховать.
Не забываем также о не падающем высоком спросе на мощные графические платы, связанным с майнингом криптовалют.
Есть еще один фактор, но он основан лишь на слухах и догадках. Видеопамять GDDR5X, которая используется в GTX 1080, по сравнению с «обычной» GDDR5 более дефицитная и более дорогая. Соответственно, GTX 1070 Ti выступает хорошим резервным вариантом.
Все равны, как на подбор
При тестировании видеокарт на базе NVIDIA GeForce GTX 1070 Ti (притом что у нас были совсем нереференсные модели с продвинутыми фирменными системами охлаждения и модернизированными платами), мы заметили, что рабочие частоты у большинства участников соответствуют стандартным.
Такую ситуацию не наблюдали уже довольно давно и даже привыкли к тому, что производители в той или иной степени традиционно завышают частоты.
В данном случае это не случайно. В моделях на базе GTX 1070 Ti компания NVIDIA обязала производителей видеокарт оставить референсные частоты.
Вероятно, это связано с тем, что, используя сравнительно небольшой разгон видеокарты GTX 1070 Ti, по производительности они слишком близко приблизятся к GTX 1080 и смогут создать ненужную внутреннюю конкуренцию.
Но у производителей все же остались некоторый инструменты, с которыми можно влиять на частоты.
Во-первых, реальная Boost-частота графического процессора NVIDIA очень часто превосходит заданную частоту для Boost-режима. В каких режимах и на сколько будет это превышение уже зависит от производителей видеокарт. В таблице мы отдельно указали зафиксированные максимальные значения частоты GPU тестируемых видеокарт.
Во-вторых, установив фирменное приложение, можно буквально в один клик перевести видеокарту в предусмотренный производителем режим с некоторым разгоном.
GTX 1070 Ti и майнинг
Тема майнинга криптовалют при помощи видеокарт по-прежнему очень актуальна. Видеокарты GTX 1070 Ti подходят для этого просто великолепно.
Они позволяют управлять разгоном и энергопотреблением в довольно широких пределах и можно довольно тонко подбирать настройки для того или иного алгоритма.
Для большинства алгоритмов майнинга, как и в игровых приложениях, можно ожидать уровень производительности GTX 1070 Ti между GTX 1070 и GTX 1080. Исключение составляет Ethash, который используется, например, для добычи монет Ethereum (ETH). Тут GTX 1070 Ti могут превзойти GTX 1080, так как для алгоритма Ethash лучше подходит память GDDR5, а не GDDR5X.
Отдельно обратили внимание на производителя чипов памяти тестируемых видеокарт. У рассматриваемых видеокарт ASUS ROG STRIX GeForce GTX 1070 Ti Advanced edition, Gigabyte GeForce GTX 1070 Ti Gaming 8G, и MSI GeForce GTX 1070 Ti GAMING 8G оказалась память производства Micron.
Участники теста
Видеокарты ASUS ROG STRIX GeForce GTX 1070 Ti Advanced edition, Gigabyte GeForce GTX 1070 Ti Gaming 8G, MSI GeForce GTX 1070 Ti GAMING 8G
Для обзора удалось собрать три видеокарты GTX 1070: ASUS ROG STRIX GeForce GTX 1070 Ti Advanced edition, Gigabyte GeForce GTX 1070 Ti Gaming 8G, и MSI GeForce GTX 1070 Ti GAMING 8G. Все модели имеют модифицированные, по сравнению с референсной, платы и оснащены фирменными системами охлаждения.
Сравнительная таблица характеристик
Gigabyte GeForce GTX 1070 Ti Gaming 8G (GV-N107TGAMING OC-8GD)
Gigabyte GeForce GTX 1070 Ti Gaming 8G
Плату Gigabyte GeForce GTX 1070 Ti Gaming 8G маленькой совсем не назовешь, но когда все три участника теста собраны вместе, хорошо заметно, что эта модель получилась самой компактной среди них.
Видеокарта получила модернизированную, по сравнению с рефренсной, плату и фирменную систему охлаждения с серией тепловых трубок и тремя вентиляторами.
Вентиляторы останавливаются, если температура GPU опускается ниже отметки 46 °С, и запускаются, если температура поднимается выше отметки 59 °С
В системе плата займет не более трех слотов расширения
Для питания видеокарты предусмотрен один восьмиконтактный разъем. Ключ разъема предусмотрительно развернут наружу
Отмечается использование восьми фаз питания (конфигурация 6+2) по сравнению с шестью фазами (5+1) в референсной GeForce GTX 1070 Ti. Производитель подчеркивает, что радиатор касается не только GPU, но и чипов видеопамяти через
термопроводящие прокладки.
Максимальная температура GPU Gigabyte GeForce GTX 1070 Ti Gaming 8G под нагрузкой в наших условиях составила 67 °С. Это очень комфортный уровень.
Мониторинг работы Gigabyte GeForce GTX 1070 Ti Gaming 8G в приложении MSI Afterburner
Скорость вращения вентиляторов, при этом, составила около 1700–1800 об./мин. Видеокарта работает тихо, и приработе в корпусе вы вряд ли заметите шум этой видеокарты на фоне остальных компонентов. Но среди других участников
теста это самое высокое значение.
Видимо, сказывается то, что у нее не такой массивный радиатор и требуются чуть более высокие обороты вентиляторов.
Несмотря на то что NVIDIA обязала производителей для решений на базе GTX 1070 Ti оставить рефренные частоты, в Gigabyte GeForce GTX 1070 Ti Gaming 8G, представленной в тесте, частоты все же оказались несколько повышенными. Вместо стандартных
1607/1683 МГц для базовой и Boost-частоты, соответственно, тут предусмотрены частоты 1620/1709 МГц.
А на скриншоте справа можно заметить, как меняются настройки частоты GPU видеокарты Gigabyte GeForce GTX 1070 Ti Gaming 8G (GV-N107TGAMING OC-8GD) при выборе предустановленного режима разгона в фирменном приложении по сравнению с заводскими установками (слева). Данные из GPU-Z
Кривая зависимости частоты и напряжения Gigabyte GeForce GTX 1070 Ti Gaming 8G, предусмотренная производителем
Как так получилось — можно только догадываться. Возможно, Gigabyte подготовила эту видеокарту до введения ограничений и не стала ее переделывать.
Такое повышение в сочетании с самой высокой зафиксированной нами Boost-частотой GPU среди других участников на базе GTX 1070 Ti позволили Gigabyte GeForce GTX 1070 Ti Gaming 8G незначительно выделиться среди конкурентов по производительности.
Заметим, что повышенные частоты имеет именно Gigabyte GeForce GTX 1070 Ti Gaming 8G с индексом GV-N107TGAMING OC-8GD (обратите внимание на наличие OC в индексе). Версия GV-N107TGAMING-8GD работает на референсных частотах. Кстати, модификацию GV-N107TGAMING OC-8GD на официальном сайте вы не найдете (ситуация на момент подготовки материала). Производитель не хочет «светить» модель GTX 1070 Ti с повышенными частотами?
Единственными участками с подсветкой на видеокарте Gigabyte GeForce GTX 1070 Ti Gaming 8G являются надписи Gigabyte и Fan Stop на боковой панели. Световые эффекты и цвет подсветки можно настраивать. При этом Fan Stop служит еще и как датчик. Надпись загорается при остановке вентиляторов
Управление видеокартой с использованием фирменного ПО
Фирменное ПО позволяет выбирать предустановленные профили работы платы, включая режим с разгоном. Доступны различные настройки разгона (частоты, энергопотребление, напряжение и т. д.) и средства для мониторинга. Не обошлось и без
возможности управления подсветкой. В общем, довольно стандартный набор, который можно видеть в ПО для современных видеокарт у разных производителей.
Оценка Gigabyte GeForce GTX 1070 Ti Gaming 8G (GV-N107TGAMING OC-8GD):
+ самая компактная по сравнению с другими участниками теста
+ повышенные частоты
+ отключение вентиляторов при низкой нагрузке
— скорость вращения вентиляторов несколько выше, чем у конкурентов
MSI GeForce GTX 1070 Ti GAMING 8G
MSI GeForce GTX 1070 Ti GAMING 8G
Дизайн и особенности MSI GeForce GTX 1070 Ti GAMING 8G типичны для фирменной серии видеокарт MSI GAMING GTX 10.
Устройства этой серии нам встречаются не впервые и мы уже не раз отмечали отличную подготовку этих продуктов.
Вентиляторы останавливаются если температура GPU опускается ниже отметки 50 °С и запускаются, если температура поднимается выше отметки 62 °С
Плата MSI GeForce GTX 1070 Ti GAMING 8G была существенно изменена по сравнению с референсной. Тут используется 10-фазовая (схема 8+2) система питания, которая также предусматривает наличие не одного восьмиконтактного, а связки из двух (8-pin+6-pin) разъемов питания. Такое решение среди других видеокарт в обзоре используется только тут.
Целых два разъема для дополнительного питания сведи участников обзора на базе GTX 1070 Ti имеет только данная модель
Похоже, что для MSI GeForce GTX 1070 Ti GAMING 8G позаимствовали плату от старшей GTX 1080.
Примененный радиатор фирменной системы охлаждения довольно крупный, но за пределы двух слотов он не выходит.
Микросхемы видеопамяти прикрыты отдельной пластиной.
Видеокарта MSI GeForce GTX 1070 Ti GAMING 8G крупная по высоте, но ширину производитель сохранил в пределах двух слотов
СО видеокарты продемонстрировала просто отличную эффективность. Под нагрузкой и температура GPU оставалась на низком уровне (65 °С) и скорость вращения вентиляторов была очень небольшой (около 1000 об./мин).
Мониторинг работы MSI GeForce GTX 1070 Ti GAMING 8G в приложении MSI Afterburner
Видеокарта имеет значительный температурный задел для экспериментов с разгоном, но вот максимальная Boost-частота при работе без разгона оказалась самой скромной среди участников теста.
Характеристики MSI GeForce GTX 1070 Ti GAMING 8G (данные приложения GPU-Z)
Кривая зависимости частоты и напряжения графического процессора MSI GeForce GTX 1070 Ti GAMING 8G, предусмотренная производителем
Система подсветки включает красные «когти» на одном из вентиляторов и фирменный логотип на боковой панели.
Различные эффекты свечения можно применять и к «когтям», и к логотипу, но выбор цвета предусмотрен лишь для логотипа. «Когти» светятся только красным цветом.
Светящиеся элементы MSI GeForce GTX 1070 Ti GAMING 8G
Управление подсветкой, выбор профилей, вывод различных диагностических данных поверх изображения (FPS, температура GPU, загрузка памяти и т. д.) и многие другие возможности можно найти в фирменном приложении MSI Gaming App.
Но в нашем случае это приложение не запустилось (использовали самую свежую версию с официального сайта). Вероятно, видеокарта еще слишком новая и производитель еще не успел добавить ее поддержку в этомприложении.
Публикуемые скриншоты фирменного приложения сняты при использовании другой видеокарты серии MSI GAMING и приведены для ознакомления.
Фирменное приложение для управления видеокартой MSI Gaming App
Фирменное приложение для управления видеокартой MSI Gaming App
Отдельным ПО можно синхронизировать подсветку видеокарты с другими совместимыми компонентами, например, материнской платой.
Синхронизация подсветки разных компонентов в системе
Также отметим, что фирменное приложения MSI Afterburner, которое когда-то давным-давно называлось RivaTuner, сегодня является чуть ли не лучшим ПО для разгона и мониторингга параметров видеокарт, причем не только видеокарт MSI, а и
любых других.
Оценка MSI GeForce GTX 1070 Ti GAMING 8G:
+ мощная плата с 10-фазным питанием
+ очень тихая система охлаждения
+ отключение вентиляторов при низкой нагрузке
— самая скромная Boost-частота среди всех участников
ASUS ROG STRIX GeForce GTX 1070 Ti Advanced edition (ROG-STRIX-GTX1070TI-A8G-GAMING)
ASUS ROG STRIX GeForce GTX 1070 Ti Advanced edition
Видеокарта относится к серии игровых продуктов ROG. И по опыту можем сказать, что это автоматически означает наличие набора интересных продвинутых особенностей.
Плата оказалась самой крупной в тесте как по длине, так и по ширине. В системе она займет три слота расширения.
В отличие от других видеокарт GTX 1070 Ti, данная модель имеет не один, а два HDMI-порта. Это может быть важно при использовании некоторых VR-систем, когда один из HDMI-разъемов вы задействуете для подключения монитора или телевизора
Рядом с разъемом питания расположены служебные светодиоды. Если провод питания не подключен, горит красный свет. Как только вы подсоедините провод, красный свет сменится на белый. Подобное решение на видеокартах ASUS разных серий встречаем уже не первый год
В большинстве случаев это мало на что влияет, но конкретно в корпус моей системы не поместилась по длине только эта модель из участвующих в тесте.
Массивный радиатор, пронизанный многочисленными тепловыми трубками, обдувается тремя вентиляторами. Производитель заявляет о наличии специальной защиты механизма вентилятора от пыли по стандарту IP5X, что должно обеспечить долговечность. Любопытно, что такой особенности в отношении вентиляторов видеокарт раньше не встречали.
Вентиляторы останавливаются, если температура GPU опускается ниже отметки 45 °С, и запускаются, если температура поднимается выше отметки 57 °С
От такой массивной СО ожидаешь отличной эффективности, и в этом плане ASUS ROG STRIX GeForce GTX 1070 Ti Advanced edition не разочаровала. Максимальная температура GPU в 63 °С оказалась самой низкой в тесте, и все это при небольшой скорости вращения вентиляторов на уровне около 1200 об./мин.
Мониторинг работы ASUS ROG STRIX GeForce GTX 1070 Ti Advanced edition в приложении MSI Afterburner
По эффективности охлаждения фирменные системы охлаждения ASUS ROG STRIX GeForce GTX 1070 Ti Advanced edition и MSI GeForce GTX 1070 Ti GAMING 8G находятся примерно на одном уровне и демонстрируют несколько более высокие результаты по сравнению с СО видеокарты Gigabyte GeForce GTX 1070 Ti Gaming 8G.
Плата в ASUS ROG STRIX GeForce GTX 1070 Ti Advanced edition — усиленная с семью фазами питания (конфигурация 6+1).
А на скриншоте справа можно заметить, как меняются настройки частоты GPU видеокарты ASUS ROG STRIX GeForce GTX 1070 Ti Advanced edition при выборе предустановленного режима разгона в фирменном приложении по сравнению с заводскими установками (слева). Данные из GPU-Z
Кривая зависимости частоты и напряжения графического процессора ASUS ROG STRIX GeForce GTX 1070 Ti Advanced edition, предусмотренная производителем
Максимальная Boost-частота оказалась не такой высокой, как у Gigabyte GeForce GTX 1070 Ti Gaming 8G, но она выше по сравнению с MSI GeForce GTX 1070 Ti GAMING 8G.
А штатная и Boost-частоты соотвествуют стандартными для GTX 1070 Ti.
При установке фирменного приложения появляется возможность выбора профиля с разгоном. Кстати, главным отличием ASUS ROG STRIX GeForce GTX 1070 Ti Advanced edition (ROG-STRIX-GTX1070TI-A8G-GAMING) от «обычной» ROG Strix GeForce GTX 1070 Ti (ROG-STRIX-GTX1070TI-8G-GAMING) является то, что при задействовании профиля OC Mode плата Advanced edition использует чуть более высокие частоты.
Система подсветки в данной модели — самая продвинутая среди других участников обзора. Элементы с RGB-светодиодами установлены и на лицевой панели с вентиляторами, и на боковой (надпись с логотипом Republic of Gamers), и даже на задней панели (логотип), что встречается крайне редко.
Подсветка ASUS ROG STRIX GeForce GTX 1070 Ti Advanced edition
На плате еще размещены разъемы для подключения вентиляторов корпуса. Их профиль работы можно связать с температурой GPU видеокарты.
Вентиляторы компьютерного корпуса можно подключить к видеокарте и управлять их работой при помощи фирменного ПО ASUS
Возможности фирменного ПО ASUS по мониторингу, разгону, управлению и настройке видеокарты довольно богатые
Видеокарта ASUS ROG STRIX GeForce GTX 1070 Ti Advanced edition обеспечивает отличную эффективность охлаждения и предоставляет интересные бонусных функции, которые точно понравятся энтузиастам. Правда, модель выделилась еще и самой высокой стоимостью среди конкурентных видеокарт на базе GTX 1070 Ti в нашем тесте.
Оценка ASUS ROG STRIX GeForce GTX 1070 Ti Advanced edition (ROG-STRIX-GTX1070TI-A8G-GAMING):
+ очень тихая система охлаждения
+ отключение вентиляторов при низкой нагрузке
+ самая продвинутая система подсветки
— большие габариты
Как мы тестировали видеокарты
Видеокарты работали с использованием изначальных настроек драйверов, оптимизированные игровые профили не применялись.
Видеокарты тестировались без разгона и без использования фирменных профилей (OC, Gaming, Silence и т. д.), которые обычно становятся доступны при установке фирменного программногообеспечения.
Тестируемые видеокарты на базе GTX 1070 Ti мы сравнивали с адаптерами GTX 1080, в роли которой выступила MSI GeForce GTX 1080 GAMING X+ 8G, и GTX 1070, в роли которой выступила MSI GeForce GTX 1070 GAMING X 8G.
В качестве тестовых приложений для определения производительности видеокарт мы использовали современные игры с поддержкой DirectX 11 и DirectX 12, которые имеют встроенные бенчмарки. Также в программу вошли популярные синтетические тесты 3DMark 11 и3DMark (2013).
В каждой игре применялись максимальные или же высокие настройки качества графики. В играх мы использовали разрешение 2560×1440 пикс. Для такого класса видеокарты считаем это разрешение оптимальным и востребованным. В 3DMark 11 видеокарты тестировались с предустановкой Extreme, а в 3DMark (2013) использовались тесты Fire Strike, Fire Strike Extreme, Fire Strike Ultra и новый DirectX 12-тест Time Spy.
Отслеживание максимальной температуры GPU и энергопотребления системы (без монитора) производилось в игре Metro: Last Light. Именно в этой игре видеокарты, по наблюдениям, нагревались наиболее интенсивно и происходило максимальное энергопотребление.
Сама система эксплуатировалась вне корпуса ПК (открытый стенд) при температуре в помещении около 21 °C. Уровень шума, создаваемый работой систем охлаждения видеокарт, оценивался субъективно.
Итоговая оценка в категории «Производительность» определялась на базе всех тестов. При этом, игровые тесты, тест 3DMark 11 Extreme, тест 3DMark: Time Spy имели одинаковый вес в итоговой оценке. А суммарный вес всех тестов 3DMark: Fire Strike был равен весу одного из игровых тестов.
Гистограммы нормированы в процентах с сортировкой моделей по результатам тестов. Конкретные результаты в виде баллов и FPS также указаны.
Конфигурация тестовой платформы:
Процессор: Intel Core i7-3770K, разогнанный до 4,2 МГц
Материнская плата: Biostar Hi-Fi Z77X
Объем оперативной памяти: 4х4 ГБ DDR3 1600
Накопители: SSD Adata S511 120 ГБ (система), HDD 1 ТБ
Операционная система: Windows 10 Pro 64 бит
Используемый драйвер NVIDIA для всех видеокарт: GeForce 388.31
Результаты тестов
Все видеокарты на базе GTX 1070 Ti в нашем тесте умеют выключать вентиляторы системы охлаждения, тем самым обеспечивая бесшумную работу при отсутствии нагрузки. Приводим замеры температур GPU, при которых происходит отключение и активация вентиляторов у тестируемых видеокарт
GTA V 2560×1440, FPS
Metro: Last Light 2560×1440, FPS
Far Cry Primal 2560×1440, FPS
Hitman 2016 2560×1440, FPS
Tom Clancy’s Ghost Recon Wildlands
Total War: Warhammer II 2560×1440, FPS
Rise of the Tomb Raider 2560×1440, FPS
3DMark 11 Extreme, баллы
3DMark: Fire Strike, GPU-баллы
3DMark: Fire Strike Extreme, GPU-баллы
3DMark: Fire Strike Ultra, GPU-баллы
3DMark: Time Spy, GPU-баллы
Производительность
Производительность/Энергопотребление
Температура графического процессора под нагрузкой, °C (меньше — лучше)
Энергопотребление системы в игре, Вт (меньше — лучше)
Выводы
Как и задумывалось компанией NVIDIA, производительность видеокарт GTX 1070 Ti оказалась выше GTX 1070 и ниже GTX 1080.
Отметим, что в роли GTX 1070 и GTX 1080 у нас выступали не референсные модели, а видеокарты MSI с некоторым заводским разгоном. Обратите также внимание, что участвующая для сравнения модель MSI GeForce GTX 1080 GAMING X+ 8G относится к модифицированным GTX 1080 с повышенной частотой памяти.
По скорости ASUS ROG STRIX GeForce GTX 1070 Ti Advanced edition, Gigabyte GeForce GTX 1070 Ti Gaming 8G и MSI GeForce GTX 1070 Ti GAMING 8G оказались очень близки. Это логично, учитывая, что они работают на практически идентичных частотах. По гистограммам можно заметить, что карта Gigabyte чуть-чуть вырвалась вперед, но эту разницу без специальных замеров вы, скорее всего, заметить и не сможете.
Такое положение дел сильно усложняет определение лучших моделей.
Абсолютно все представленные в этом тесте видеокарты GTX 1070 Ti — это отличные устройства без заметных недостатков. Есть некоторые отличия в габаритах: самой компактной оказалась трехвентиляторная Gigabyte GeForce GTX 1070 Ti Gaming 8G, а самой крупной — трехвентиляторная ASUS ROG STRIX GeForce GTX 1070 Ti Advanced edition.
Системы охлаждения ASUS, Gigabyte, MSI без особых проблем справляются с отводом тепла и держат температуру GPU в безопасных пределах, оставляя некоторый задел для экспериментов с разгоном. Кстати, с разгоном данные видеокарты на базе GTX 1070 Ti вполне могут приблизиться или сравняться по скорости с GTX 1080.
Самой интересной в плане внешнего светового оформления оказалась ASUS ROG STRIX GeForce GTX 1070 Ti Advanced edition. Она имеет наиболее продвинутую систему подсветки, но и стоит несколько дороже других участников.
Как и другие видеокарты архитектуры Pascal, модели на базе GTX 1070 Ti обладают отличным соотношением производительности и энергопотребления. По этому показателю решения NVIDIA последние годы заметно превосходят конкурентов на GPU AMD.
Любопытная ситуация: по данным NVIDIA энергопотребление GTX 1070 Ti должно быть выше GTX 1070 и находиться на уровне GTX 1080. Но по нашим замерам видеокарты GTX 1070 Ti и GTX 1070 по этому показателю находятся почти на одном уровне, а вот энергопотребление GTX 1080 оказалось более высоким.
Стоимость видеокарт GTX 1070 Ti на нашем рынке почти в полтора раза превосходит рекомендованные цены NVIDIA. Отчасти это связано с новизной — модели только появляются в продаже. Но на это также влияют особенности ценообразования (у нас видеокарты традиционно более дорогие по сравнению, например, с рынком США), а также дополнительный спрос, обусловленный популяризацией майнинга видеокартами.
С выходом GTX 1070 Ti больших изменений на рынке видеокарт не произошло. Просто NVIDIA заполнила небольшую нишу между свои ми же видеокартами.
У пользователя при этом появилась дополнительная возможность более тонко подобрать видеокарту по своему бюджету в классе видеокарт высокого класса.
Читайте также:
Тест видеокарты Sapphire Pulse Radeon RX 580. Легкая модернизация Polaris
Тест видеокарты MSI GeForce GTX 1080 TI Gaming X 11G. Гордое лидерство 1080 Ti
Куда пропали видеокарты? Их раскупили майнеры…
Обзор видеокарты ASUS ROG STRIX-GTX1060-O6G-GAMING. Самый прокачанный GTX 1060
Обзор видеокарт на базе NVIDIA GeForce GTX 1060 от Inno3D, MSI и Zotac. Шикарный средний класс
Обзор видеокарты Asus EX-GTX1050-2G. Самый младший Pascal
Тестируем AMD Radeon RX 460. Бюджетные видеокарты становятся быстрее
NVIDIA GeForce GTX 1080 и другие. Тест видеокарт среднего и высокого уровней
evoИнженер тестовой лаборатории
Читайте также
Мощность, температура и шум
— Обзор EVGA GeForce GTX 1070 Ti FTW2: iCX приносит свет и датчики
Мощность, температура и шум
Как и ожидалось, учитывая стандартизированные NVIDIA тактовые частоты GTX 1070 Ti, стандартные тесты для GTX 1070 Ti FTW2 были довольно скучными с точки зрения сырой производительности, близкими к эталонной карте Founders Edition. Тем не менее, специальные функции FTW2, безусловно, влияют на мощность, температуру и шум — факторы, которые нельзя недооценивать, особенно по сравнению с обычно более громкими и более горячими эталонными моделями воздуходувок.Вообще говоря, современная технология ускорения графического процессора обычно использует преимущества лучшей мощности и температурных характеристик платы для более длительного и более высокого ускорения, но с обязательными эталонными тактовыми частотами GTX 1070 Ti FTW2 просто работает холоднее и тише.
Средняя тактовая частота видеокарты GeForce | ||||
Игра | EVGA GTX 1070 Ti FTW2 | GTX 1070 Ti | GTX 1070 | |
Макс. Частота разгона | 1898 МГц | 1898 МГц | 1898 МГц | |
Поле битвы 1 | 1860 МГц | 1826 МГц | 1797 МГц | |
Пепел: эскалация | 1850 МГц | 1838 МГц | 1796 МГц | |
DOOM | 1847 МГц | 1856 МГц | 1780 МГц | |
Ghost Recon Wildlands | 1860 МГц | 1840 МГц | 1807 МГц | |
Рассвет войны III | 1860 МГц | 1848 МГц | 1807 МГц | |
Deus Ex: Человечество разделено | 1855 МГц | 1860 МГц | 1803 МГц | |
Grand Theft Auto V | 1862 МГц | 1865 МГц | 1839 МГц | |
F1 2016 | 1860 МГц | 1840 МГц | 1825 МГц | |
Total War: Warhammer | 1855 МГц | 1832 МГц | 1785 МГц |
Хотя кажется, что GTX 1070 Ti повышает производительность немного выше и более стабильно, производительность GTX 1070 Ti FTW2 «из коробки» мало изменилась по сравнению с Founders Edition.Для большинства стандартных тестов разница была в пределах погрешности.
Что касается мощности, то дополнительные возможности GTX 1070 Ti FTW2 на складе довольно приглушены. В режиме ожидания плата отключает вентиляторы при определенных температурах — главный BIOS по умолчанию имеет порог в 60 градусов — и технически говоря, светодиоды потребляют некоторую мощность, но общее потребление системы редко отражает такие небольшие различия и настройки.
Хотя заявленный TDP составляет 180 Вт, GTX 1070 FTW2 имеет два 8-контактных разъема питания PCIe, а не один 6-контактный разъем Founders Edition.Учитывая установленный по умолчанию предел мощности 100%, эта дополнительная потребляемая мощность вряд ли может быть использована в большинстве приложений, а для Battlefield 1 энергопотребление системы увеличивается только примерно на 8 Вт. Но такой мощный вирус, как FurMark, гораздо менее сомневается в том, чтобы взять как можно больше, так как GTX 1070 Ti FTW2 сразу же потянет немного больше, в районе 30 Вт у стены.
Как и большинство высококачественных специализированных плат, GTX 1070 Ti FTW2 может поддерживать типичную температуру холостого хода с пассивным охлаждением.Под нагрузкой включаются вентиляторы, и карта устанавливается чуть ниже установленной по умолчанию точки дроссельной заслонки 72 градуса, даже во время работы FurMark.
EVGA GTX 1070 Ti FTW2 iCX Показания | |||
Battlefield 1 (1440p) | FurMark | ||
Температура графического процессора | 68 ° С | 70 ° С | |
iCX GPU2 Темп. | 65 ° С | 70 ° С | |
iCX MEM1 Темп. | 50 ° С | 53 ° С | |
iCX MEM2 Темп. | 59 ° С | 64 ° С | |
iCX MEM3 Темп. | 70 ° С | 78 ° С | |
iCX PWR1 Темп. | 65 ° С | 70 ° С | |
iCX PWR2 Темп. | 66 ° С | 72 ° С | |
iCX PWR3 Темп. | 66 ° С | 72 ° С | |
iCX PWR4 Темп. | 66 ° С | 72 ° С | |
iCX PWR5 Темп. | 68 ° С | 75 ° С | |
Скорость левого вентилятора (GPU) | 962 об / мин | 1191 об / мин | |
Скорость правого вентилятора (PWM / MEM) | 1066 об / мин | 1320 об / мин |
В режиме ожидания, конечно, видеокарта использует нулевую скорость вращения вентилятора на холостом ходу.Под нагрузкой конструкция охлаждения оказывается достаточно способной с вентиляторами на относительно низкой скорости, что приводит к довольно тихому профилю. Оба вентилятора нагнетаются асинхронно, и неудивительно, что оба вентилятора повышаются в FurMark, который показывает более высокие температуры на всех датчиках iCX. Общую идею асинхронных вентиляторов можно увидеть в том, как правильный вентилятор ускоряется в ответ на более высокую температуру памяти и ШИМ.
Такой профиль мощности, температуры и шума подойдет некоторым просто отлично: тихая карта с целенаправленными светодиодами температуры, и все это без вмешательства пользователя.Другие сразу заметят неиспользованный запас. Создав XOC Scanner, EVGA пытается добиться успеха, применяя одношаговый автоматический разгон. И на этой ноте переходим к разгону…
Nvidia GeForce GTX 1070 обзор
Твитнуть Температура видеокартыИтак, давайте посмотрим на температуру графического процессора. Во-первых, температура холостого хода (настольного компьютера), сообщаемая программным обеспечением на термодатчиках графического процессора.Во-первых, температура холостого хода, в целом все, что ниже 50 градусов по Цельсию, считается нормальным, все, что ниже 40 градусов по Цельсию, — это хорошо. Мы наугад добавили несколько карточек, которые мы недавно протестировали в приведенной выше таблице. Но что происходит, когда мы играем? Мы запускаем интенсивное игровое приложение на видеокарте и измеряем максимальную температуру графического процессора.
Итак, когда карты были полностью нагружены, мы продолжали следить за температурой и записывали температуру графического процессора по данным термодатчика.
- Температура карты в условиях сильного игрового стресса стабилизировалась на уровне примерно 76 градусов Цельсия. Мы отмечаем самые горячие показания графического процессора, а не средние.
Эти испытания проводились при комнатной температуре 20 ~ 21 ° C. Имейте в виду, что большую часть времени во время игры наша температура составляет чуть ниже 70 градусов по Цельсию, это пиковая температура, основанная на цикле FireStrike.
ВведениеАрхитектура графического процессора PascalАрхитектура графического процессора PascalНовые технологии, представленные с помощью PascalДемонстрация продукцииПоказ продукцииПоказ продукцииПрограмма установки Потребляемая мощностьТемпература графической картыТепловые измерения графической карты (FLIR) Уровни шума графической картыТестовая среда и оборудованиеDX12: Rise Of The Tomb Raider (2016) DX12: Hitman (2016) DX12: Ashes Of The Singularity BenchmarkOpenGL: DOOM (2016) DX11: Far Cry PrimalDX11 : Anno 2205DX11: Fallout 4DX11: Grand Theft Auto VDX11: Tom Clancy’s The DivisionDX11: ThiefDX11: The Witcher III Wild HuntDX11: Battlefield HardlineDX11: Alien IsolationDX11 5K Ultra HD: Средиземье Тень МордорDX11: 3DMark 11DX11: 3DMark FireStricking (2013) FireStricking (2013) CardConclusion
Статьи по теме
Мы рассматриваем GeForce RTX 2080 SUPER, NVIDIA выпустила новые видеокарты Super с суперзарядкой в супер-диапазоне того, что они считают супер-продуктами.GeForce RTX 2080 Super основан на Туринском …
Nvidia Обзор GeForce GTX 1070
В этом обзоре мы тестируем GeForce GTX 1070 (Nvidia Founders Edition). Видеокарта 8 ГБ — это несколько ограниченный младший брат GTX 1080, этот маленький демон на архитектуре Pascal и 1 …
Обзор Nvidia GeForce GTX 1080
). Прибыл новый 8-гигабайтный зверь, основанный на архитектуре Pascal и 16-нм FinFET.Это круто, бесшумно и тяжело, когда …
Обзор Nvidia GeForce GTX 980 Ti
В этом обзоре мы подробно рассмотрим GeForce GTX 980 Ti. Все, что вы слышали, правда, этот продукт основан на BIG Maxwell, том же графическом процессоре, на котором работает Titan X. Очевидно, что продукт был …
MSI GTX 1070 Ti Gaming 8 GB Обзор — Температура и профили тактовой частоты
Температуры
Температуры холостого хода хорошие, даже если вентиляторы выключаются на холостом ходу.Температуры под нагрузкой тоже хорошие; троттлинга нет.
Сравнение температуры графического процессора | ||||||
---|---|---|---|---|---|---|
Неактивный режим | Нагрузка | Игровой шум | ||||
MSI GTX 1070 Ti Gaming | 52 ° C | 69 ° C 910 | 1070 Ti FE | 40 ° C | 83 ° C | 38 дБА |
MSI GTX 1070 Ti Titanium | 54 ° C | 69 ° C | 30 дБА | |||
Цветной GTX 1070 Ti iGame Vulcan X Top | 46 ° C | 67 ° C | 32 дБА | |||
Palit GTX 1070 Ti Super JetStream | 49 ° C | 66 ° C | 30 дБА |
и производственных отклонений.Эта таблица просто служит для того, чтобы предоставить список из
типичных температур для аналогичных карт, определенных во время проверки TPU.
Профили тактовой частоты
Современные видеокарты имеют несколько профилей тактовой частоты, которые выбираются для обеспечения баланса между потребляемой мощностью и требованиями к производительности.В следующей таблице перечислены настройки часов для важных сценариев производительности и напряжение графического процессора, которое используется в этих состояниях.
Графический процессор Часы | Память Часы | Напряжение графического процессора | |
---|---|---|---|
Рабочий стол | 139 МГц | 203 МГц | 0.650 В |
Мульти-монитор | 139 МГц | 203 МГц | 0,650 В |
Воспроизведение Blu-ray | 671 МГц | 405 МГц | 0,650 В |
Загрузка 3D | 9049 — 1886 МГц2002 МГц | 0,850 — 1,062 В |
Для графика ниже мы записали все комбинации тактовой частоты графического процессора и напряжения графического процессора в нашем тестовом пакете с разрешением 1920×1080. Нанесенные на график точки прозрачны, что позволяет суммировать их для обозначения наиболее часто используемых значений. Светлый цвет означает, что комбинация часов / напряжения используется редко, а темный цвет означает, что она активна чаще.
Обзор игровой видеокартыGigabyte GeForce GTX 1070 G1 — Страница 9 из 12
Тестирование температуры и шума
Производительность видеокарты в играх является наиболее важным фактором при покупке видеокарты, но вы также должны беспокоиться о показателях шума, температуры и энергопотребления.
Gigabyte GeForce GTX 1070 G1, игровые темпы простоя и нагрузки:
Что касается температуры, Gigabyte GeForce GTX 1070 G1 Gaming работала при 46 ° C в режиме ожидания на нашем испытательном стенде на открытом воздухе, так как полупассивные вентиляторы охлаждения не вращались. Хорошая новость заключается в том, что отсутствие вращающихся вентиляторов означает, что GTX 1070 G1 Gaming не издает шума в режиме ожидания. При полной загрузке во время игры мы достигли максимальной температуры 65 ° C, что довольно прилично и далеко не настолько, чтобы вызывать беспокойство.GPU-Z v1.9.0 показал, что игра GTX 1070 G1 потребляла 0,6250 В в режиме ожидания и 1,0500 В при полной нагрузке.
Вот диаграмма, которая показывает температуру GeForce GTX 1070 G1 Gaming в сравнении с некоторыми другими высокопроизводительными картами для настольных ПК, и вы можете видеть, что GTX 1070 G1 Gaming на 17 ° C холоднее, чем карта GeForce GTX 1070Founders Edition!
Тестирование звука
Мы проверяем уровни шума с помощью шумомера Extech, который имеет точность ± 1,5 дБ и соответствует стандартам типа 2.Этот измеритель находится в диапазоне от 35 до 90 дБ в нижнем диапазоне измерений, что идеально подходит для нас, поскольку в нашей тестовой комнате обычно в среднем составляет около 36 дБ. Мы измеряем уровень звука на два дюйма выше угла материнской платы с помощью частотного взвешивания «А». Ветрозащитная крышка микрофона используется, чтобы гарантировать, что ветер не дует на микрофон, который серьезно сбрасывает данные.
Gigabyte GeForce GTX 1070 G1 Gaming работает бесшумно на холостом ходу, поэтому он связывает все остальные модели видеокарт 0 дБ, поскольку самая громкая вещь в комнате — это наш кулер с водой в тестовой системе, поскольку это единственный вентилятор, который у нас работает без остановки. .GTX 1070 G1 Gaming достигла максимума в 45 дБ, что чуть меньше, чем у эталонной карты GeForce GTX 1070. Он не очень громкий, но вы сможете услышать его гудение в своей системе во время длительных игровых сессий.
** Референсная карта AMD Radeon R9 Fury X, которую мы используем, была оригинальной моделью с громким водяным насосом, который воет. AMD изменила конструкцию помпы до того, как карты поступили в розницу, но не захотела заменять нашу. Мы ожидаем, что розничные карты для этого будут работать тише, и надеемся, что AMD пришлет нам замену карты для надлежащего тестирования шума.**
ZOTAC GeForce GTX 1070 AMP! Отзыв
[section label = «Введение»]
ZOTAC AMP — это все!
Когда NVIDIA впервые анонсировала видеокарты GeForce GTX 1080 и GTX 1070 на базе Pascal еще в мае, было совершенно ясно, что у них на руках пара победителей. Перенесемся на четыре месяца до сегодняшнего дня, и кажется, что компания по-прежнему доминирует на рынке высокопроизводительных графических процессоров, и до начала 2017 года со стороны AMD не ожидается конкуренции.Имея это в виду, у любого, кто хочет купить высокопроизводительную видеокарту, есть только два варианта — GeForce GTX 1080 или GeForce GTX 1070.
Сегодня мы рассмотрим последнюю, а точнее ZOTAC GeForce GTX 1070 AMP! ZOTAC — компания, которая производит видеокарты GeForce почти десять лет и недавно сделала себе имя в сообществе энтузиастов и оверклокеров с помощью своих AMP! серии, которые обычно предлагают превосходное охлаждение и более качественные системы подачи энергии, чем те, которые встречаются в эталонных проектах.
Хотя в сегменте high-end со стороны AMD может не быть большой конкуренции, между различными партнерами NVIDIA по-прежнему существует огромная конкуренция за самые привлекательные индивидуальные системы охлаждения и дизайн плат для продуктов NVIDIA. С такими гигантами, как ASUS, Gigabyte и MSI, которые владеют такой же рыночной долей, как и они, может показаться тяжелой битвой для компании, не обладающей такой же силой бренда, как ZOTAC, остаться в игре, но за эти годы им удалось довольно хорошо и действительно начали выделяться из толпы своими новейшими продуктами.
NVIDIA GeForce GTX 1070 Технические характеристики
* Технические характеристики ZOTAC выделены жирным шрифтом.
Графический процессор | GTX 1080 | GTX 1070 | GTX 980 | GTX 970 |
---|---|---|---|---|
Ядро графического процессора | GP104-400 | GP104-200 | GM204 | GM204 |
Архитектура | Паскаль | Максвелл | ||
Производство | TSMC 16 нм | TSMC 28 нм | ||
Частота ядра | 1607 МГц | 1506 МГц (1632) МГц | 1126 МГц | 1050 МГц |
Тактовая частота с ускорением | 1733 МГц | 1683 МГц (1835) МГц | 1216 МГц | 1178 МГц |
Ядра CUDA | 2560 | 1920 | 2048 | 1664 |
Текстурные блоки | 160 | 120 | 128 | 104 |
ROP | 64 | 64 | 64 | 64 |
Буфер кадра | 8 ГБ | 8 ГБ | 4 ГБ | 4 ГБ |
Тип памяти | GDDR5X | GDDR5 | GDDR5 | GDDR5 |
Интерфейс памяти | 256 бит | 256 бит | 256 бит | 256 бит |
Тактовая частота памяти | 10 Гбит / с | 8.0 (8,2) Гбит / с | 7,0 Гбит / с | 7,0 Гбит / с |
Расчетная мощность | 180 Вт | 150 Вт (220 Вт) | 165 Вт | 145 Вт |
Стартовая цена | Цена: 599 долларов. Учредители: $ 699 | Цена: 379 долларов. Учредители: 449 долларов США | $ 329 | $ 429 |
Взглянув на таблицу выше, мы видим, что цены на GTX 1070 немного дороже, чем на GTX 970 предыдущего поколения, при этом рекомендованная производителем розничная цена увеличена на 50 долларов с 329 до 379 долларов.Само по себе это не станет серьезным препятствием, учитывая повышение производительности, предлагаемое архитектурой Pascal, но, к сожалению, как мы видели за последние несколько месяцев, эта цена MSRP также может быть единорогом. Средняя цена GTX 1070 легко превышает 400 долларов в диапазоне 430 долларов из-за проблем с поставками. ZOTAC GeForce GTX 1070 AMP в настоящее время стоит 439 долларов, что ставит его в один ряд с другими кастомными GTX 1070. Тем не менее, вы получаете более высокий заводской разгон, чем большинство кастомных карт GTX 1070 стоимостью менее 450 долларов при 1632 МГц на ядрах и 1835 МГц на повышенных тактовых частотах.
Обзор архитектурыPascal
Это наш первый обзор видеокарты на базе NVIDIA Pascal, поэтому, вероятно, стоит быстро остановиться на некоторых особенностях архитектуры Pascal. Новая архитектура приносит с собой множество новых функций и улучшений по сравнению с архитектурой Maxwell предыдущего поколения, включая полностью новый производственный процесс FinFET на 16 нм, который позволяет упаковать еще большее количество транзисторов в меньшую площадь кристалла (7.2 миллиарда, в случае GP104), что позволяет повысить энергоэффективность в 1,5 раза при одновременном обеспечении до 70% большей производительности по сравнению с решениями на базе Maxwell.
Pascal также представляет технологию Delta Color Compression 4-го поколения от NVIDIA, которая позволяет увеличить эффективную пропускную способность памяти до 20%, позволяя графическому процессору вычислять различия между пикселями в данном блоке и сохранять этот блок как набор эталонных пикселей вместе с значения дельты из справочника.Если дельты небольшие, то требуется всего несколько бит на пиксель. Однако, если результат упаковки опорных значений плюс дельта-значения меньше половины размера несжатого хранилища, то дельта-цветовая компрессия выполняется успешно, и данные сохраняются с половинным размером.
Еще одним важным дополнением к Pascal является технология одновременного проецирования нескольких проекций NVIDIA или SMP. Эта новая аппаратная функция позволяет улучшить визуальные эффекты с помощью различных технологий отображения, включая игры NVIDIA Surround с тремя мониторами и виртуальную реальность.Возможно, вскоре появится более подробная статья по этому вопросу, но вкратце она позволяет разработчикам визуализировать всю сцену за один проход, а затем сопоставить ее с несколькими точками обзора с правильной перспективой. Для VR это позволяет увеличить производительность вдвое, избавляя от необходимости дважды рендерить сцену, чтобы охватить оба глаза. Для конфигураций с несколькими мониторами это может помочь устранить визуальные аномалии, которые возникают из-за наклона левого и правого дисплея к пользователю, хотя в этом сценарии повышения производительности не происходит.
Еще одно визуальное улучшение, представленное в Pascal, поддерживается для дисплеев HDR или High Dynamic-Range. Эта функция поставляется вместе с поддержкой Pascal для подключения дисплеев следующего поколения, таких как DisplayPort 1.4 и HDMI 2.0.
Теперь, когда вы получили представление о некоторых новых технологиях, появившихся с выпуском Pascal, давайте поближе познакомимся с этой чудовищной видеокартой.
[section label = «Взгляд поближе»]
Подробнее о ZOTAC GeForce GTX 1070 AMP!
Начиная с упаковки ZOTAC GeForce GTX 1070 AMP! Edition мы получаем крутой желто-черный дизайн, который идеально сочетается с тематикой логотипа компании.
В комплект поставки входит руководство пользователя, руководство по быстрой установке, установочный диск с драйверами (не используйте его, загрузите последние версии драйверов с сайта GeForce) и симпатичный значок на чехле ZOTAC для демонстрации предпочтений вашего бренда. . Также имеется пара адаптеров PCIe с двойного 6-контактного на один 8-контактный, на тот случай, если в вашем блоке питания отсутствуют необходимые разъемы питания PCIe. Обычно мы не рекомендуем использовать эти типы адаптеров, если это не временное решение. Тем не менее, всегда приятно видеть их включенными в комплект.
Наконец, мы взглянем на саму видеокарту, и, мальчик, она отлично выглядит. ZOTAC GTX 1070 AMP! оснащен системой охлаждения IceStorm, которая включает в себя двойные сверхширокие 100-миллиметровые вентиляторы, которые предназначены для подачи большего количества воздуха при работе на более низких оборотах для более тихой работы. Фактически, эти вентиляторы также используют то, что ZOTAC называет «заморозкой», что по сути означает, что они полностью отключаются, когда карта находится в режиме ожидания или не потребляет много энергии и не требует дополнительного охлаждения.Карта имеет длину чуть более 11,8 дюйма и имеет стандартный форм-фактор с двумя слотами.
ZOTAC GeForce GTX 1070 AMP! Также есть компания Carbon ExoArmor, которая является причудливым разговором, поскольку имеет рисунок из углеродного волокна, расположенный на различных акцентах на охлаждающем кожухе. Он также имеет приятную металлическую отделку серого цвета на основном металлическом корпусе с грубой текстурой. В целом, он выглядит и ощущается очень премиальным. Карта также оснащена светодиодной системой освещения Spectra от ZOTAC, которая включает в себя множество цветов, которые могут быть нанесены как на логотип ZOTAC на боковой стороне карты, так и на два светодиодных элемента в форме шеврона, расположенных между вентиляторами на передней панели.
Вокруг спины у нас действительно классная задняя панель премиум-класса с серо-желтым дизайном и логотипом ZOTAC. Задняя панель также охватывает карту, простираясь к задней и передней сторонам, чтобы помочь скрыть компоненты под ней.
Это меня немного раздирает. Помимо задней панели, ZOTAC разработал очень нейтральную по цвету карту, которая впишется в самые разные сборки без конфликтов, однако желтые акценты на задней панели могут сделать эту карту препятствием для некоторых, особенно для тех, кто вложил большие средства. в определенную цветовую тему, такую как красный / черный или синий / черный.
Если взглянуть на заднюю панель ввода-вывода, мы видим довольно стандартные 3x DisplayPort 1.4 (сертифицированный HDR), 1x HDMI 2.0 и 1x двухканальный DVI-коннектор.
На другом конце карты у нас есть 2 8-контактных разъема питания PCIe, что на единицу больше, чем требуется для эталонных карт / карт Founder. Теоретически это позволило бы увеличить мощность и, таким образом, увеличить запас по разгону, однако мы думаем, что для такой карты, как эта, это все же может быть излишним.
Разобрав карту, мы лучше рассмотрим систему охлаждения, которая состоит из разделенных широких алюминиевых ребер, соединенных пятью медными тепловыми трубками различного размера, которые отводят тепло от медного основания.
Переходя к печатной плате, мы получаем полностью настраиваемую компоновку, в основе которой лежит графический процессор GP104-200. Вокруг него находятся 8 микросхем памяти Micron GDDR5 по 1 ГБ, которые отличаются от микросхем памяти Samsung, которые мы видели на этих картах в других обзорах. Это может означать, что существуют версии карты с обоими типами памяти, которые на самом деле не должны иметь никакого влияния на конечного пользователя, но могут иметь разные результаты разгона.
Для VRM у нас есть 8-фазная схема питания, которая состоит из высококачественных полевых МОП-транзисторов MagnaChip Semiconductor MDU1511 и ШИМ-контроллера μP9511P UPI Semiconductor Corp.Фактически это тот же самый контроллер, что и в версиях NVIDIA Founder’s GTX 1080 и GTX 1070.
[section label = «Настройка и методология тестирования»]
Тестовая установка
Испытательный стенд Haswell-E X99
Особая благодарность компаниям Phanteks, DEEPCOOL, Asrock и Crucial за поставку жизненно важных компонентов для этого испытательного стенда.
Методология тестирования — Обновление 2016 г. 1.1
Поскольку основные выпуски графических процессоров AMD и NVIDIA полностью поддерживают новейшие API-интерфейсы, такие как DirectX 12 и Vulkan, а также ряд новых игр, использующих эти новые функции, мы решили, что пришло время обновить наш набор для тестирования графических процессоров. для более точного представления современного игрового ландшафта.Мы по-прежнему будем использовать FRAPS для регистрации результатов производительности в ряде игр DirectX 11 и OpenGL. Однако мы также будем использовать PresentMon, инструмент командной строки с открытым исходным кодом, который работает очень похоже на FRAPS, но поддерживает DirectX 12, Vulkan и заголовки с поддержкой UWP.
Как и любой хороший набор графических тестов, наш постоянно развивается, чтобы соответствовать текущему игровому ландшафту. Мы считаем, что с постепенными изменениями добавляются новые игры и тесты. Обновление 1.1 включает в себя добавление совершенно нового теста DirectX 12 Time Spy в 3DMark, а также изменение нашего тестирования DOOM (2016) на использование нового API Vulkan вместо старого OpenGL.Теперь вы можете спросить, почему мы решили не тестировать оба, и это хороший вопрос. Решение сводится к тому, что, по нашему опыту, DOOM в Vulkan работает лучше, чем в OpenGL, на всем современном оборудовании, и мы не видим никаких причин для продолжения тестирования в более низком режиме API. Конечно, если вы сочтете это неприемлемым, не забудьте упомянуть об этом в комментариях ниже, и мы рассмотрим возможность повторного добавления в будущих тестах.
Будут протестированы следующие игры / тесты:
Все игры будут протестированы минимум три раза для каждой конфигурации, при этом среднее значение этих результатов будет отображаться на наших графиках.Производительность будет измеряться в среднем FPS, а также в 99-м (1% низкий) и 99,9-м (0,1% низкий) процентилях. Эти результаты будут собраны из данных времени кадра, которые записываются с использованием как FRAPS, так и PresentMon, однако они будут преобразованы из миллисекунд (мс) в кадры в секунду (FPS) для упрощения. Данные, собранные с помощью инструментов тестирования, анализируются с помощью FRAFS и Microsoft Excel.
Все заголовки тестируются при настройках от «Высокого» до «Очень высокого» при разрешении, определяемом рыночным сегментом графического процессора.В случае этого обзора это будут 1080p и 1440p.
[section label = «Разгон с помощью ZOTAC FireStorm»]
ZOTAC GeForce GTX 1070 AMP! Разгон
Начальная загрузка
ZOTAC FireStorm
Используя собственное программное обеспечение ZOTAC Firestorm, которое представляет собой специальное приложение для управления и контроля скорости вращения вентилятора графического процессора, температуры, тактовой частоты и функций освещения, мы смогли разогнать тактовую частоту графического процессора до 220 МГц, что дает нам повышенную тактовую частоту. 2,017 МГц, однако, как и GPU Boost 3 от Паскаля.0 работает, он может быть намного выше в зависимости от температуры, TDP напряжения и нагрузки. По нашему опыту, он достиг 2088 МГц, что совсем неплохо, хотя некоторые карты могут ломать 2100 МГц, наша не смогла этого добиться. Мы решили не трогать память, так как 8,2 Гбит / с кажется более чем достаточным, а с точки зрения реальной производительности гораздо эффективнее сосредоточить энергию на тактовой частоте ядра графического процессора.
[метка раздела = «Энергопотребление и температура»]
ZOTAC GeForce GTX 1070 AMP! Производительность
Потребляемая мощность
Для тестирования энергопотребления мы будем измерять полную мощность системы в режиме ожидания вместе с полной мощностью системы с графической картой, работающей с полной нагрузкой, с помощью Furmark.Все измерения энергопотребления будут производиться на розетке с помощью простого кил-ваттметра P3.
Энергопотребление карты такое же, как и ожидалось, при стандартных настройках оно примерно на 61 Вт выше, чем у ASUS STRIX GTX 970 под нагрузкой, при разгоне — 83 Вт. Хотя это измерение общего энергопотребления системы, мы можем оценить, что общая потребляемая мощность для самого графического процессора составляет примерно 227 Вт на складе и 249 Вт при разгоне. Это немного выше эталонного TDP 150 Вт для GTX 1070, однако это соответствует спецификациям ZOTAC для AMP! версия.
Температурные испытания
Для температуры холостого хода мы будем снимать показания, когда видеокарта простаивает в течение 5 минут после холодной перезагрузки. Температуру нагрузки измеряют после полных 30-минутного прожига с помощью Furmark.
Хотя некоторые из вас не являются большими поклонниками Furmark, поскольку он создает сверхтяжелую, нереалистичную нагрузку на видеокарту, мы считаем, что это более полезный инструмент, поскольку он различает видеокарты с очень хорошо спроектированными кулерами и видеокартами с очень хорошим дизайном. просто имейте охлаждающие решения, которые просто пройдут испытание, если хотите.Большинство игр в наши дни обычно не создают достаточной нагрузки / тепла, чтобы даже превысить температуру, при которой вентиляторы будут раскручиваться на большинстве нестандартных кулеров, поэтому трудно адекватно оценить решения по охлаждению без использования такого инструмента, как Furmark. Во время всех тестов температура всасываемого воздуха в GPU составляла примерно 25 ° по Цельсию.
Температуры тоже неплохие для карты такого исполнения. При 75C под нагрузкой при стандартных настройках карта может оставаться довольно прохладной даже при самых экстремальных, нереалистичных нагрузках, таких как FurMark.На самом деле, во время игр мы можем ожидать, что карта останется в середине 60-х, что мы и наблюдаем большую часть времени. После разгона он действительно подскакивает до низких 80, но, опять же, это крайний случай, и даже тогда он все еще достаточно безопасен и не должен начинать дросселировать, пока температура не достигнет середины 90-х.
[метка раздела = 6. 3DMark »]
3D Mark
Новый 3D Mark, теперь называемый просто 3D Mark, является последним обновлением Futuremark популярной серии тестов 3D Mark.Обновленный 3D Mark теперь включает в себя несколько тестов для кроссплатформенной поддержки, а также обновленную графику, чтобы максимально использовать новейшие видеокарты.
Огненный удар
Шпион времени
[метка раздела = ”Crysis 3 ″]
Crysis 3
Crytek — третий выпуск легендарной серии Crysis, как и его предшественники, по-прежнему остается одной из самых красивых и графически насыщенных игр на сегодняшний день.Предлагая фотореалистичные текстуры, улучшенное освещение и массивную среду, в которой сочетаются пышная органическая растительность и листва с большими, поврежденными и разрушенными зданиями.
Мы тестируем игру в течение 60 секунд в первой закрытой зоне, где есть несколько перестрелок, взрывов и немного стелс-игры. Это не самая графически насыщенная часть игры, но она одна из самых легко воспроизводимых для наших целей.
Настройки
Результаты
Rise of the Tomb Raider
Являясь продолжением отмеченной наградами перезагрузки Tomb Raider от Crystal Dynamics, Rise of the Tomb Raider переносит пользователей со всего мира во множество экзотических мест с еще большим количеством гробниц.Благодаря физическому рендерингу, HDR и адаптивному отображению тонов, отложенному освещению с локализованным глобальным освещением для реалистичного освещения, объемное освещение позволяет использовать лучи Бога и световые лучи.
Мы тестируем Tomb Raider с помощью встроенного в игру инструмента тестирования.
Настройки
Результаты (DX11)
Результаты (DX12)
[section label = ”Grand Theft Auto V”]
Grand Theft Auto V
Горячо ожидаемый выпуск на ПК пятой части их франшизы Grand Theft Auto от Rockstar Games снова легко доказывает, что когда дело доходит до игр с открытым миром, никто не делает это лучше.Благодаря множеству новых функций и графических улучшений, созданных специально для версии для ПК, неудивительно, что им потребовалось так много времени, чтобы оптимизировать ее. С расширенными функциями, такими как тесселяция, окружающая окклюзия, реалистичные тени и освещение, в сочетании с самой большой картой открытого мира в истории франшизы, это одна красивая, хорошо оптимизированная игра для ПК на рынке.
Мы тестируем Grand Theft Auto 5, используя последнюю сцену встроенного инструмента тестирования игры.
Настройки
Результаты
[section label = «Ведьмак 3: Дикая Охота»]
Ведьмак 3: Дикая Охота
СерияCD Projekt RED «Ведьмак» уже давно считается одной из самых красивых и требовательных к графике игр для ПК, и ее последняя игра, «Ведьмак 3: Дикая Охота», не исключение.С красивой, большой открытой средой, подробным дизайном уставов, текстурами с высоким разрешением и расширенными функциями, такими как God Rays и Volumetric Fog, в дополнение к множеству эффектов постобработки, это определенно одна впечатляюще выглядящая игра.
Мы тестируем The Witcher 3 на 60-секундном круге вокруг первой деревни, с которой вы столкнетесь в кампании, это одно из лучших мест для тестирования, поскольку оно демонстрирует некоторые из наиболее графически насыщенных функций игры, такие как God Rays и Volumetric Fog. .Тест предлагает очень небольшую вариативность, что делает его очень повторяемым тестом, который трудно найти в большинстве игр с открытым миром.
Настройки
Результаты
[section label = ”Project CARS”]
МАШИНЫ пр.
Гоночный симулятор нового поколения Project CARS был встречен с большим нетерпением, когда разработчик Slightly Mad Studios впервые объявил о проекте при поддержке сообщества. Хотя это может быть не окончательный выбор для энтузиастов гоночных симуляторов, это одна из самых привлекательных гоночных игр с фотореалистичными моделями автомобилей, реальными трассами и реалистичными погодными и дождевыми эффектами.Несмотря на некоторые начальные проблемы с производительностью на оборудовании AMD, которые в основном были исправлены, он по-прежнему остается одним из лучших гоночных симуляторов, доступных для тестирования графической производительности.
Мы тестируем игру, используя внутриигровую систему повторов, гонка проходит на гоночной трассе Нюрбургринг, с фиксированным переходом эффектов от облачности к грозе.
Настройки
Результаты
[метка раздела = ”DOOM”]
DOOM
Последний выпуск легендарной серии DOOM от Id Software.Новый DOOM предлагает новейшие графические технологии и полностью неограниченную частоту кадров благодаря новому игровому движку id Tech 6. Благодаря лучшей графике, доступной на сегодняшний день на ПК, DOOM воплощает в жизнь его адскую среду и демонов, создавая поистине потрясающие впечатления.
Мы тестируем DOOM, используя 60-секундный прогон во время первой миссии игры.
Настройки
результатов (Vulkan)
[метка раздела = ”HITMAN (DX11 / DX12)”]
HITMAN
Продолжение Hitman: Absolution 2012 года под простым названием HITMAN, последней игры в серии от разработчика IO-Interactive, приглашает пользователей в эпизодическое приключение, чтобы соревноваться в сети с другими игроками.Новая игра также поддерживает последнюю версию Microsoft DirectX 12 API.
Мы тестируем HITMAN, используя встроенную в игру утилиту для тестирования производительности.
Настройки
Результаты (DX11)
Результаты (DX12)
[section label = ”Gears of War: Ultimate Edition (DX12)”]
Gears of War: Ultimate Edition
На ПК выходит ремастер оригинальной Gears of War с полностью обновленной графикой и переработанной синематикой.В Gears of War Ultimate Edition вас ждут знакомые и любимые классические боевые действия с использованием мыши и клавиатуры. Добавление поддержки DX12 делает его обязательным для любого графического теста.
Мы тестируем Gears of War, используя встроенную в игру утилиту для тестирования производительности.
Настройки
Результаты (DX12)
[section label = «Ashes of the Singularity (DX12)»]
Прах сингулярности
Научно-фантастическая RTS-игра отOxide, Ashes of the Singularity, является основным продуктом любого графического обзора, поскольку она предоставляет одну из лучших реализаций новейшего DirectX 12 API, в комплекте с асинхронными вычислениями для повышения производительности и даже явной поддержкой нескольких графических процессоров, которая позволяет смешивание нескольких различных видеокарт для повышения производительности.
Настройки
Результаты (DX12)
[section label = ”Выводы”]
ZOTAC GeForce GTX 1070 AMP! Выводы
После завершения всех наших тестов и получения результатов кажется совершенно очевидным, что GTX 1070 — огромный шаг вперед по сравнению с GTX 970 предыдущего поколения с увеличением производительности примерно до 50% в играх DirectX 11. В DirectX 12 / Vulkan история еще более драматична, с увеличением почти до 62%.Это значительный рост числа поколений, и это практически беспрецедентно.
Обычно мы рекомендуем пользователям обновлять каждое поколение двух поколений, однако с Pascal кажется, что даже нынешние владельцы серии GTX 900 увидят значимые улучшения производительности при переходе на серию GTX 10.
А теперь поговорим подробнее о ZOTAC GTX 1070 AMP! Версия. Хотя я не имел удовольствия тестировать какие-либо другие видеокарты на базе GTX 1070, я могу сказать вам, что это все еще одна из лучших видеокарт, которые я тестировал.Что касается качества сборки, производительности охлаждения, разгона и общей стабильности, ZOTAC GTX 1070 AMP оставляет желать лучшего. С эстетической точки зрения у меня есть проблемы с некоторыми вариантами дизайна, такими как желтые акценты на задней панели. При этом, безусловно, это не самая худшая карта, и желтые акценты — это долгожданное изменение темпа от черных и красных цветовых схем, которые обычно наводняют рынок.
Что касается цены, то ZOTAC GTX 1070 AMP! Edition находится прямо посередине пакета, где баребонные карты GTX 1070 оцениваются в диапазоне от 400 до 420 долларов, а карты более высокого уровня, с тройным вентилятором или с жидкостным охлаждением могут иметь цену от 480 до 500 долларов.Стоимость GTX 1070 AMP составляет 439 долларов, что довольно типично для карты с ее набором функций, хотя она, как правило, опережает своих ближайших конкурентов с точки зрения заводского разгона.
С учетом всего сказанного, мне довольно легко рекомендовать эту карту любому на рынке в качестве высокопроизводительной видеокарты, хотя я бы не сказал, что это лучшая кастомная GTX 1070 из доступных, она может быть просто лучшей. за деньги. Рекомендуемые!
Образец предоставлен: ZOTAC
Доступно на: Amazon
ОбзорNvidia GTX 1070 Ti: актуален только потому, что GTX 1080 становится все более дефицитной
Nvidia GTX 1070 Ti стала последней видеокартой в линейке графических процессоров Pascal зеленой команды до того, как в этом году на сцену вышло графическое решение Nvidia Turing следующего поколения.Очевидно, что было множество необычных небольших обновлений — GTX 1060 с GDDR5X и странные 1050 с 3 ГБ — но это последняя автономная видеокарта с архитектурой последнего поколения.
Учитывая небольшой рыночный разрыв между GTX 1070 и GTX 1080, последней видеокарте Nvidia Pascal требовалось предложить что-то особенное, чтобы оставаться на вершине шаткого диапазона цена / производительность. Теперь, когда кризис майнинга утих, и Nvidia пытается помочь изменить объем карт Pascal в канале, ценообразование уже не такой кошмар, как в последние 12 месяцев.
При цене 380 долларов (385 фунтов стерлингов) GTX 1070 Ti стоит дешевле GTX 1080, так как их дефицит продолжается, и существует широкая поддержка сторонних карт от обычных имен и лиц в бизнесе.
Ходили слухи о том, что Nvidia полностью блокирует разгон сверх тактовой частоты, чтобы GTX 1070 Ti не поглотила свою карту GTX 1080. Но срок для заводских версий с разгоном истек, и существует огромное множество карт.
Характеристики Nvidia GTX 1070 Ti
GTX 1070 Ti был последним «ура» архитектуры Pascal до появления графических процессоров Nvidia Turing, и поэтому компоненты GTX 1070 Ti невероятно знакомы.В картах используется комбинация деталей видеокарт GTX 1070 и GTX 1080, которые мы уже знаем и любим.
По своей сути, GTX 1070 Ti имеет почти полноценный графический процессор GP104 с числом ядер CUDA 2432 — всего лишь один потоковый микропроцессор (SM), не считая полного GP104, установленного в GTX 1080.
GTX 1070 Ti | GTX 1080 | RTX 2070 | |
GPU | GP104 | GP104 | ТУ106 |
Поколение | Паскаль | Паскаль | Тьюринг |
ядра CUDA | 2,432 | 2,560 | 2 304 |
Размер матрицы | 314 мм 2 | 314 мм 2 | 445 мм 2 |
Базовые часы | 1607 МГц | 1607 МГц | 1,410 МГц |
Разгонная частота | 1,683 МГц | 1,733 МГц | 1,710 МГц |
Память | 8 ГБ GDDR5 | 8 ГБ GDDR5X | 8 ГБ GDDR6 |
Шина памяти | 256 бит | 256 бит | 256 бит |
Расчетная мощность | 180 Вт | 180 Вт | 175 Вт |
Память была нарезана больше всего в GTX 1070 Ti, отказавшись от памяти GDDR5X, которая есть в картах Nvidia высшего уровня — возможно, из-за нехватки — в пользу памяти GDDR5.В результате пропускная способность памяти снижается с 320 ГБ / с на GTX 1080 до 256 ГБ / с на GTX 1070 Ti.
Базовая частота начинается с 1607 МГц. Тактовая частота Boost такая же, как у его младшего брата — GTX 1070 — 1,683 МГц. Конечно, на видеокарте реализована поддержка GPU Boost 3.0 от Nvidia, которая увеличит тактовую частоту намного больше, чем указано в наивысшей спецификации ускорения.
Вопреки ранее популярным слухам, Nvidia не блокировала ручной разгон GTX 1070 Ti, если карта в этом преуспела — и Nvidia разыгрывает это в своем маркетинге, заявляя, что карта является «монстром разгона».
Тесты Nvidia GTX 1070 Ti
Производительность Nvidia GTX 1070 Ti
Готовая к работе графическая производительность — это именно то, что вы можете ожидать от видеокарты, находящейся между двумя хорошо известными братьями и сестрами. Карта занимает свое место среди GTX 1070 и GTX 1080 как по цене, так и по производительности. Без ручного разгона карта работает ближе к первому, чем второму.
В нашем тестовом пакете GTX 1070 Ti на штатных тактовых частотах превзошла GTX 1070 на 16%.Эта производительность достигается с наценкой на 13% по сравнению с эталонной GTX 1070 по рекомендованной розничной цене. Никаких сюрпризов.
Для целевой игровой аудитории с разрешением 1440p вы, вероятно, не сильно пострадаете, отказавшись от GTX 1070 Ti и выбрав более дешевую GTX 1070, поскольку обе предлагают более чем приемлемую для игры частоту кадров при 1440p, в среднем выше 60 кадров в секунду.
Хотя GTX 1070 Ti значительно дешевле, чем несколько GTX 1080, оставшихся в канале, и более новый RTX 2070, который пришел, чтобы эффективно его заменить.По производительности в играх он недалеко от GTX 1080, хотя это означает, что разница между ним и текущей нижней картой Turing относительно велика.
В чем GTX 1070 Ti действительно выделяется, так это в запасе возможностей для разгона, где нам удалось добиться сдвига +225 МГц к тактовой частоте ядра GP104. Хотя это кажется довольно высоким, это во многом связано с довольно низкими эталонными тактовыми частотами из коробки без каких-либо заводских настроек. Нам также удалось достичь смещения памяти +455 МГц на 8 ГБ GDDR5.Предел температуры был увеличен до 92 ° C, а предел мощности — до 120%, что позволило немного увеличить запас по разгону.
При стабильном разгоне на нашем тестовом стенде производительность становится гораздо более убедительной. Жаль, что эта производительность заблокирована процессом, который многие владельцы GTX 1070 Ti, скорее всего, не будут беспокоить, что приводит к довольно низкой производительности в целом.
В среднем производительность выросла на 32% с нашей разогнанной картой по сравнению с эталонной GTX 1070, быстро меняя цену за кадр в пользу GTX 1070 Ti.Королю-убийце не удалось справиться с цареубийством на нашем испытательном стенде, даже с самыми высокими разгоном, которые мы могли собрать без нестабильности, при этом средняя частота кадров в секунду была на 6% хуже, чем у GTX 1080 на эталонных частотах.
Ожидалось, что узкие места с ограниченной пропускной способностью памяти поднимут свою уродливую голову в тестах, требующих больших файлов текстур и т.п. Как показывают наши тесты, это, по-видимому, повлияло на минимальную частоту кадров в Shadow of War в 4K и 1440p. Переход к 8 Гбит / с GDDR5 с 10 Гбит / с GDDR5X, вероятно, является причиной значительного снижения производительности по сравнению с GTX 1080.
Nvidia GTX 1070 Ti приговор
GTX 1070 Ti — это относительно скромное улучшение по сравнению с GTX 1070, а производительность сразу после установки не сильно меняет правила игры. Он незаметно попадает в стек продуктов Pascal, над которым мы успешно играем почти два года, и работает примерно так, как вы могли ожидать. Хотя немного дополнительной мощности для разгона имеет большое значение. Несмотря на то, что он запускается почти на Хэллоуин, это не совсем тот зомби, потребляющий GTX 1080, на которого вы, возможно, надеялись.
Потенциал GTX 1070 Ti почти полностью заключается в разгоне. Это может показаться странным, учитывая первоначальный запрет Nvidia на заводской разгон. Это означает, что если разгон не является частью вашей рулевой рубки, то вы, возможно, захотите поискать в другом месте, хотя его стандартная производительность теперь более актуальна с сокращающимся количеством карт GTX 1080, доступных по приличным ценам.
По крайней мере, с нашей эталонной картой Nvidia мы не смогли полностью выжать из нее производительность GTX 1080, хотя в большинстве тестов она была в пределах 6% от более дорогой карты.Благодаря уверенному разгону GTX 1070 Ti удается сократить отставание от GTX 1080, но никогда не преодолевает его.
Из-за ограниченной пропускной способности памяти она, вероятно, будет стареть быстрее, чем GTX 1080 или графические процессоры с более высокими характеристиками, а для карты, которая появляется так поздно в игре, это не лучшее положение.
Когда эта карта была впервые анонсирована, мы задумались о ее назначении, посчитав это продуктом скуки инженеров команды GeForce. Слухи о потенциальной каннибализации GTX 1080 и Nvidia ограничивают разгон карты, чтобы предотвратить это, казалось, что эта карта может серьезно подорвать окружающие ее карты.
Nvidia действительно собиралась выпустить последний потрясающий сеноуборщик в качестве последнего ура Паскалю. Тем не менее, когда он был запущен, казалось, что он снова вернулся в слот дизайнерской скуки, просто заполнив пробел, с которым когда-то яростно боролась AMD RX Vega. Однако само по себе это так и не произошло, поскольку AMD боролась за производительность со своей последней архитектурой.
К сожалению, GTX 1070 Ti — это не поздняя игра, посвященная вечной славе, это отличная карта, мало чем отличавшаяся от своих феноменальных собратьев Pascal, которые были до нее.Но это действительно актуально только сейчас, когда появятся новые GTX 1080. А поскольку основные графические процессоры поколения Turing должны появиться в новом году, рекомендовать их становится все труднее и труднее.
{«schema»: {«page»: {«content»: {«headline»: «Обзор Nvidia GTX 1070 Ti: актуален только потому, что GTX 1080 становится все меньше», «type»: «hardware», «hardware» «:» Nvidia, Nvidia GeForce GTX 1070 Ti «,» category «:» nvidia «},» user «: {» loginstatus «: false},» game «: {» publisher «:» «,» genre «: null , «title»: «Nvidia», «genres»: null}}}}
Safe GPU temp — Оптимальные температуры для майнинга видеокарт для долговечности
Вы тот человек, который просто хочет получить прибыль от инвестиций или вы хотите получать прибыль, добывая криптовалюту в долгосрочной перспективе? Если вы хотите просто достичь рентабельности инвестиций, то это займет всего 6–9 месяцев с превышением тактовой частоты вашей карты или без него.Если вы хотите получить прибыль в долгосрочной перспективе, вы должны сначала убедиться, что все ваши драгоценные графические процессоры безопасны и прослужат дольше. Как вы это обеспечите? Проверяя, все ли ваши графические процессоры работают при безопасных температурах. Здесь мы узнаем, каковы безопасные температуры графического процессора, и несколько советов, как сделать ваши графические карты более безопасными.
Недавно мы писали о мониторинге температуры процессора во время майнинга. Мы планировали опубликовать то же самое для GPU, так как мы обнаружили, что на форумах Reddit, bitcointalk, Ethereum и Zcash ведется очень много дискуссий о безопасных темпах GPU.Некоторые утверждают, что температура ниже 90 ° C безопаснее, некоторые говорят, что температура должна быть ниже 80 ° C, 75 ° C, а некоторые советуют поддерживать температуру на уровне 70 ° C и 65 ° C. Но какая именно температура самая безопасная и насколько высока?
Безопасная температура графического процессора
Прежде всего мы должны понять, что графические карты в наши дни не настолько хрупки, чтобы быстро сломаться. Они могут выдерживать высокие температуры, но не так долго.
Секунда; графические карты — это потребительские товары, которые предназначены для игр в видеоигры, а не для майнинга криптовалют.Майнинг 24 x 7 не повредит ваши графические процессоры, но майнинг при высоких температурах сделает это, потому что тепло является основным источником повреждения оборудования.
Третий; Каждая графическая карта будет иметь разный уровень TDP, установленный производителем. Кроме того, разные карты будут добывать разные алгоритмы при разных температурах, поэтому мы не сможем определить точное число, которое будет безопаснее. Однако мы хотели бы сказать, что для современных графических процессоров температура ниже или равная 75 ° C совершенно нормальна. Если вы все еще беспокоитесь, мы рекомендуем вам поддерживать температуру ниже 69 ° C.
У нас есть GTX 970, которая майнит при 75 ° C, 6 x GTX 1070 майнят при температуре от 65 до 72 ° C, а также установка GTX 1080 TI, поддерживающая температуру ниже 75 ° C.
Временные зоны графического процессора
Мы нашли интересную дискуссию на форуме Ethereum, в которой приводились общие оценки, чтобы понять, что означают разные температуры графического процессора. Здесь мы хотели бы поделиться тем же с вами своими словами, чтобы избежать нарушения авторских прав.
0 ° C — 29 ° C: Похоже, вам сначала нужно включить компьютер!
30 ° C — 49 ° C: При этой температуре нельзя выполнять основные задачи, кроме игры в Mine Craft.Вы уверены, что ваш графический процессор занимается майнингом?
50 ° C — 59 ° C: Ваш графический процессор может работать лучше. Вы уверены, что он не работает под тактовой частотой?
60 ° C — 69 ° C: Здесь вы можете увидеть, как ваш графический процессор обеспечивает приемлемый хешрейт. Оптимизировано по энергии, хорошо! Вы экономите немного электроэнергии.
70 ° C — 75 ° C: Лучше хешрейт! Это оптимальная температура, приемлемая для видеокарт нового поколения. Это должно быть легко достигнуто при TDP менее 85%.Хорошая температура, чтобы обогреть и вашу комнату, если вы живете в холодном месте.
75 ° C — 79 ° C: Большинство графических процессоров хорошо справляются с этой температурой. Однако ваши графические процессоры не дадут никаких лучших результатов, поэтому немного отступите в сторону безопасности.
80 ° C — 89 ° C: Вы тратите слишком много энергии! В этом диапазоне графические процессоры могут выглядеть нормально, но вы определенно повредите свое оборудование. Пожалуйста, уменьшите свой TDP и доведите его как минимум до середины 70-х.
90 ° C — 99 ° C: При этой температуре вы можете приготовить курицу, но мы рекомендуем использовать духовку.Вы серьезно повредили свой графический процессор. Прежде чем сжечь эти пластмассы, выключите майнер и проверьте, что происходит с вашим графическим процессором.
100 ° C — 109 ° C: Мы не думаем, что ваш графический процессор может дольше выдерживать такую температуру. Если вам повезло, и если он находится на гарантии, замените его, иначе они исчезнут навсегда.
110 ° C +: К сожалению, у нас больше нет отзывов. Положите свой GPU на смертный одр и, пожалуйста, не продолжайте читать дальше.
Советы по обеспечению долговечности графического процессора
Мы придерживаемся большого правила: температура не должна превышать 75 ° C.Чем круче ваш графический процессор, тем дольше будет их срок службы. Вот несколько советов, которые помогут продлить срок службы вашего графического процессора, если вы занимаетесь серьезным майнингом.
Вентиляция
Это не относится к установкам для майнинга, поскольку они в любом случае открыты, но что, если вы позволите своему игровому ПК майнить? Если на вашем ПК установлено более двух вентиляторов, включите его на полной скорости, если не откройте одну сторону корпуса, чтобы обеспечить достаточный приток воздуха к графическому процессору. Также, если у вас есть установка для майнинга, убедитесь, что между графическими картами достаточно места.
Кондиционер в вашей горнодобывающей комнате
Мы знаем, что это огромные инвестиции. Если у вас более двух установок и вы добываете из места с жаркой погодой, вам следует подумать о том, чтобы охладить свою комнату. Если нет кондиционера, возьмите внешний вентилятор и откройте все окна, чтобы обеспечить лучшую циркуляцию воздуха в шахтерском помещении.
Очистите оборудование
Поскольку горнодобывающие установки всегда открыты, пыль может сильно накапливаться. Слишком много пыли часто приводит к сбою вашего графического процессора, что плохо, поэтому чистите свой компьютер и установки для майнинга хотя бы раз в месяц.
Следите за температурой графического процессора
Во время майнинга программа майнера будет отображать мощность, потребляемую вашей картой, и при какой температуре она работает. В дополнение к этому мы также предлагаем вам использовать MSI Afterburner или использовать Tech power up GPU-Z для мониторинга температуры видеопамяти и графического процессора.
Не разгоняйте графический процессор слишком сильно
Мы понимаем, что разгон дает лучший хешрейт, но не перегружайте графический процессор слишком большим разгоном. Вы можете поиграть с утилитой разгона (MSI Afterburner), чтобы найти лучшее место для ваших карт.В наши дни графические карты хороши для получения лучших результатов, потребляя меньше энергии и выделяя меньше тепла.
Надеюсь, это руководство развеяло ваши сомнения по поводу оптимальной температуры графического процессора для майнинга. Всегда следите за тем, чтобы ваши видеокарты охлаждались, и не разрушайте с трудом заработанные инвестиции. Если вы нашли это руководство полезным, поделитесь им. Если вы хотите дать другим пользователям дополнительные советы относительно температуры графического процессора, оставьте свой комментарий. Увидимся в следующем руководстве, а пока продолжайте хеширование! Играть безопасно!
.
Ваш комментарий будет первым