Нажмите "Enter", чтобы перейти к содержанию

Benchmark видеокарты: FurMark 1.10.0 — бенчмарк видеокарт и мощный стресс-тест

Содержание

Видеокарты

Совершенно нормально, когда видеокарта новой серии соответствует по быстродействию предыдущей модели, стоявшей на один шаг выше. Другое дело, если остается прежней цена производительности в пересчете на один FPS — а с Radeon RX 6600 XT произошло именно это. Ну что ж, посмотрим, чем AMD может скрасить печальную картину

DOOM Eternal уже больше года, и вот наконец-то в игре появилась трассировка лучей. А вместе с ней — поддержка DLSS. Ну что ж, проверим, остался ли обновленный DOOM с рейтрейсингом столь же демократичным и нетребовательным к железу, как раньше

Скоростная память GDDR6X до сих пор оставалась привилегией старших моделей GeForce 30-й серии. Но теперь и RTX 3070, которому как раз недоставало ПСП, в модификации Ti приобрел VRAM нового стандарта. Посмотрим, как это повлияло на производительность, энергопотребление и, главное, цену самого популярного представителя архитектуры Ampere, на примере видеокарты Palit GamingPro

GeForce RTX 3080 еще не успел состариться, а в 30-й серии ускорителей NVIDIA уже появилась более производительная — и да, более дорогая — модель, близкая по характеристикам к RTX 3090. В условиях затяжного дефицита видеокарт мы не можем поручиться за адекватные розничные цены новинки, но выясним, на что она способна в играх и рабочих приложениях

Cyberpunk 2077 мало того, что чрезвычайно требователен к железу, так еще и вышел он очень сырым. Но после нескольких масштабных обновлений большая часть работы над ошибками уже сделана, а видеокарты AMD 6000-й серии наконец-то допущены к трассировке лучей. Кроме того, появились новые модели ускорителей и неоднократно обновились драйверы GPU. А значит, пора вернуться к тестам

По словам AMD, в играх без рейтрейсинга Radeon RX 6700 XT обгоняет не только GeForce RTX 3060 Ti, но и даже RTX 3070 и потому заслуживает достаточно высокой цены в $479. После достижений старших моделей семейства в это легко поверили. А зря

Форматы дисплеев 16:9 и 16:10 многие геймеры воспринимают как нечто классическое, не имеющее особой альтернативы. А ведь раньше мы спокойно проводили время за мониторами с соотношением сторон 4:3! Однако сейчас все большую популярность приобретают новые — ультраширокие — форматы дисплеев для настольных ПК. Вот мы и решили проверить, как в играх в двух популярных разрешениях чувствуют себя современные (и не очень) видеокарты

Главное, чем отличились старшие модели 30-й серии, относится и к младшей: производительность растет, а цена FPS снижается. GeForce RTX 3060 должен стоить еще меньше RTX 2060. К тому же по иронии судьбы RTX 3060 теперь располагает наибольшим объемом VRAM во всей линейке, кроме RTX 3090. Тестирование выполнено на примере устройства Palit Dual OC

Как и ожидалось, NVIDIA не стала затягивать с выпуском мобильных чипов Ampere. На примере ноутбука MSI Stealth GS66 мы узнаем, на что способен самый быстрый графический чип в серии — GeForce RTX 3080

Не всем играм нужно самое мощное и дорогое железо. Есть и другие, хорошо оптимизированные или попросту нетребовательные проекты. Проверим, какой видеокартой можно обойтись в HITMAN III и что потребуется для игры на максималках и с высоким разрешением

Radeon RX 6900 XT пророчат быстродействие на уровне GeForce RTX 3090 в традиционных играх без рейтрейсинга. И это — при более низком энергопотреблении, а главное, за меньшие деньги. Ну что ж, проверим, удалось ли AMD на этот раз выдвинуть полноценную альтернативу флагманским решениям NVIDIA

AMD удалось сдержать обещания о производительности на уровне передовых решений NVIDIA, которые геймеры слышат уже не первый год. Теперь, наконец, не стыдно собрать игровую машину на красных чипах — как CPU, так и GPU. Впрочем, и на этот раз все-таки не обошлось без разочарований, причем нетрудно догадаться, каких именно

А вы поверили в то, что GeForce RTX 3070 станет полным аналогом RTX 2080 Ti, только вдвое дешевле? Именно это обещают презентации NVIDIA и технические характеристики новинки, но опыт RTX 3080 предостерегает от завышенных ожиданий. Давайте узнаем, как обстоят дела на практике!

GeForce RTX 3080 вернул «зеленые» ускорители на прежнюю траекторию роста производительности и обеспечил в играх такую прибавку FPS, какая не снилась прошлому поколению. Но если и этого мало, есть RTX 3090. Тестирование выполнено на примере видеокарты Palit GeForce RTX 3090 GamingPro OC

Ускорители на чипах Ampere претендуют на такое быстродействие и за такие деньги, что публика, обжегшись один раз на ускорителях 20-й серии, неохотно верит NVIDIA. Тем более самих новинок пока просто не найти в продаже. А вот у нас они наконец-то появились. Пора выяснить, на что способен Ampere в деле. Тестирование выполнено на примере видеокарты Palit GeForce RTX 3080 GamingPro OC

В цене RTX первого поколения на долю инноваций приходилась заметно большая часть, чем на рост быстродействия. Однако трассировка лучей пока еще не получила в играх такого распространения, чтобы оправдать высокую стоимость. Но теперь NVIDIA намерена все исправить. Архитектура Ampere сулит очень серьезную прибавку FPS за те же деньги — прямо как в старые добрые времена!

Новый MSFS еще на стадии альфа-тестирования произвел впечатление самой масштабной и красивой игры современности. Теперь, после релиза, когда сетовать на раннюю версию графического движка уже нельзя, можно добавить, что это еще и чрезвычайно требовательный проект, созданный с расчетом на GPU нового поколения. А пока таких еще нет в продаже, проверим, на что годятся существующие видеокарты

В прошлый раз мы выяснили, что произошло с флагманскими игровыми GPU за последние восемь лет, и пришли к неутешительным выводам о том, что рост быстродействия замедлился, а цена FPS с недавних пор только растет. Пора узнать, как обстоят дела у видеокарт классом ниже, которые обычно стоят от $329 до $500

На рынке игровых GPU сложилась, прямо скажем, нездоровая ситуация. Несмотря на все успехи чипов AMD Navi, правила игры единолично задает NVIDIA, а цены топ-моделей поднимаются с каждым годом. Давайте выясним, как мы дошли до такой жизни, и ответим на другие важные вопросы: могут ли новые бюджетные видеокарты заменить старых тяжеловесов и есть ли куда расти будущим флагманам?

Издание Grand Theft Auto V для PC на днях отметило свою пятую годовщину. С тех пор в него не перестали играть, а вот железо сильно изменилось. Посмотрим, какие требования GTA V предъявляет современным ускорителям и справятся ли новые топ-модели с игрой пятилетней давности в 4К на максималках

Многие разновидности Radeon RX 6700 XT с недавних пор резко подешевели, но какую выбрать? NITRO+ привлекает оверклокерским потенциалом, возможностью легкой замены вентиляторов охлаждения, а главное — низким уровнем шума

GeForce RTX 3070 Ti стала одной из первых видеокарт, получивших аппаратную блокировку некоторых алгоритмов майнинга. К тому же очередная новинка NVIDIA появилась в продаже одновременно с падением курсов различных криптовалют, на фоне которого видеокарты в целом начали дешеветь. Кажется, жизнь налаживается, и интерес к игровым адаптерам постепенно возвращается

Сегодня видеокарты средне-высокой категории быстродействия столь же прожорливы, как «топ» предыдущего поколения, а значит, требуют подобающей оснастки. Но конструкция ROG Strix удовлетворяет любым требованиям, предъявляемым RX 6700 XT к питанию и охлаждению — даже при агрессивном пользовательском разгоне

Характеристика «недорогая» звучит издевательски применительно к любой современной видеокарте, но ведь Palit GamingPro — это и вправду наиболее доступная версия RTX 3080 Ti в российской рознице. Посмотрим, что светит покупателю, который желает не только получить лучшее, но еще и сэкономить в столь трудное время

Мы уже, признаться, забыли, что AMD обещала выпустить свой аналог DLSS — признанного инструмента апскейлинга кадров. Но теперь, наконец, сложились все условия для полномасштабного дебюта этой технологии в игровых проектах. Давайте проверим, возможно ли это — нарастить производительность и сохранить качество изображения без машинного обучения и специализированного железа

Мы не знаем, сколько у этой видеокарты мегахешей, но знаем, на что MSI Radeon RX 6700 XT Gaming X 12G способна в разных компьютерных играх. И делимся этой информацией с вами в нашем подробном обзоре

Обзор видеокарты Palit GeForce GTX 970 JETSTREAM | Видеокарты | Обзоры

Приветствую и желаю всего самого наилучшего посетившим этот обзор.

Сегодня будет рассмотрена видеокарта Palit GeForce GTX 970 JETSTREAM, её возможности в некоторых игровых новинках, надёжность системы охлаждения, и насколько хорошо она разгоняется. Её разгон ранее не производился мной, так что всё, что с этим связано, будет делаться впервые и, по возможности, подробно будет изложено в этом обзоре.

Ну что же, приступим.

Технические характеристики Palit-GeForce-GTX-970-JETSTREAM

Интерфейс: PCI Express 3.0 x16. Технологический процесс: 28 нм. Количество универсальных процессоров: 1664. Число текстурных блоков: 104. Число блоков растеризации: 56. Версия шрейдеров: 5.0 Количество видео процессоров: 1. Частота видео процессора. Базовая: 1152 МГц. В режиме турбо: 1304 МГц. Объём видеопамяти: 4 Гб. Тип памяти: GDDR 5. Разрядность шины памяти: 256 бит. Эффективная частота видеопамяти: 7000 МГц (2х3500). Поддержка API: DirectX 12, OpenCL 1.2, OpenGL 4.5. Поддержка мультипроцессорной кон*игурации: SLI. Максимальное количество одновременно подключаемых мониторов: 4. Максимальное разрешение: 4096×2160. Видеоинтерфейсы (выходы): Mini DisplayPort: 3 шт. DVI-I: 1 шт. Mini HDMI: 1 шт. Максимальная мощность видеокарты (Вт): 150 Вт. Рекомендованная мощность блока питания (Вт): 500 Вт, для SLI из 2 карт: 600 Вт. Дополнительные разъемы питания: 6-pin X2. Форм-фактор: 2.5 слота. Размеры. Длина: 247 мм. Ширина: 126 мм.

Упаковка и комплектация

Продаётся в коробке довольно приличных размеров

Длина: 400 мм.

Ширина: 270 мм.

Высота: 95 мм.

Для серии GTX 900 компания Palit использует чёрно-золотой с зелеными вставками дизайн.

В верхнем левом углу золотым цветом изображён логотип производителя, в правом верхнем таким же цветом указан гарантийный срок (3 года).

В середине на фоне иероглифа, выполненного блестящей чёрной краской, так же золотым цветом надпись JETSTREAM

Внизу, в обрамлении золотого и зелёного указана модель видеокарты: GeForce GTX 970.

По самому низу изложены некоторые характеристики

На тыльной стороне, вверху логотипы nVidia и Palit

Ниже большая часть отдана кратким техническим спецификациям

На боковых сторонах вверху логотип производителя, середина отдана под надпись JETSTREAM, внизу, на зелёном фоне, GeForce GTX 970,

электронный адрес производителя и объём видеопамяти.

На нижней стороне слева, в зелёном квадрате GeForce GTX 970, логотип производителя, значки nvidia SHELD и NVIDIA GEOFORCT GTX. Также имеется наклейка со штрих кодом и краткими характеристиками

Верхняя сторона: Слева практически то же самое. В середине ручка для переноски. Справа логотип Palit надпись JETSTREAM в правом нижнем углу.

Передняя сторона упаковки двойная. Её верх крепится с одной стороны на липучках и открывается в правую сторону. На обратной стороне в середине изображение видеокарты, по краям, на английском языке, описываются её технические специализации.

В самой упаковке имеется окно, закрытое целлулоидом, сквозь которое видна сама видеокарта.

Извлекаем внутреннюю упаковку со стороны верхней части внешней.

В ней находится видеокарта, упакованная в целлулоидный контейнер.

Снимаем верхнюю часть контейнера, и перед нами видеокарта.

Система охлаждения

Видеокарта оборудована 2 вентиляторной системой охлаждения с 15 лопастями на каждом вентиляторе. В середине вентиляторов имеется надпись

GEPFORCE GTX 970.

С тыльной стороны видны алюминиевые пластины радиатора, их 35 штук

С нижней стороны видны 3 тепловые трубки.

На верхней стороне, на кожухе системы охлаждения, логотип производителя. На самой плате разъёмы дополнительного питания, 6-pin * 2.

На обратной стороне видим печатную плату. К ней прикреплено удлинение для системы охлаждения. Так же видны четыре подпружиненных винтика, крепящих систему охлаждения. На одном имеется гарантийная пломба.

Я прошу прощения, но так как видеокарта на гарантии ещё более двух лет, то я не буду срывать пломбу, чтобы показать систему охлаждения изнутри. Риск в данном случае не из разряда дешёвых.

Так же на плате видны дополнительные отверстия для крепления не заводских систем охлаждения. И это, на мой личный взгляд, несомненный плюс,

так как значительно облегчает подбор и установку систем охлаждения других производителей.

На передней стороне видны интерфейсы (видео выходы). А так же решётка охлаждения.

Комплектация Palit-GeForce-GTX-970-JETSTREAM 

Она не богата. В неё входят:

1: Диск с ПО.

2: Переходник DVI — VGA.

3: переходник питания видеокарты 2 Molex — 6 pin.

4: Документация.

Так же на плате имеются несколько наклеек со штрих кодами, и надпись, что видеокарта прошла тест, на соответствие стандарту.

Руководство пользователя.

Разгон видеокарты Palit-GeForce-GTX-970-JETSTREAM

Производился с помощью утилиты Thunder MasterДанная утилита имеется на идущем в комплекте с видеокартой диске с ПО.

Начал с того, что просто выставил на максимум частоту GPU, частоту памяти на 1020 МГЦ.

ОК. И, полностью ожидаемо, на 100% прогнозируемо, получил национальную хижину великого воина Чинганчук большой змей.Перезагрузка и  новая попытка.

И снова,  вышеупомянутая, хижина.

Вышеуказанные действия показаны в качестве примера, как не следует разгонять видеокарту. Начинать нужно от меньших значений, постепенно прибавляя.

Через некоторое время, после ряда ритуальных танцев и камланья, был получен вот такой результат.

Пройден тест в FurMark

Но запуск игры Crysis3, расставил всё по своим местам. Через три минуты чёрный экран.

Снова перезагрузка и очередная порция ритуальных священнодействий.

В итоге, спустя полтора дня, после выше перечисленных таинств + обещаний «отремонтировать» с помощью молотка и зубила :-)), был получен результат.

Что стоит, притом обязательно, отметить, так это то, что при разгоне приходится выставлять вращение вентиляторов в ручной режим. Без постоянного охлаждения вылеты в черный экран, вылет видео драйвера и тому подобные «приятные» сюрпризы.

И ещё — при разгоне видео чипа, одновременный разгон памяти приводит к вышеупомянутым сюрпризам.

  Тесты Palit-GeForce-GTX-970-JETSTREAM

Для простоты разгон видеокарты будет обозначаться J

3DMark​

Unigine Heaven Benchmark 4.0 (профиль экстрим)

Valley Benhmark 1.0 (профиль экстрим HD)

Игровые тесты

Тестовый стенд.

Процессор — intel Core i5-4690K

Материнская плата — ASUS Z97-К

Оперативная память —   Corsair Vengeance 2*4 Гб

Блок питания — Chieftec СTG — 650С, модульный

Кулер — DEEPCOOL GAMMAXX S40

Корпус — GMC V1000 PHANTOM.

Все игры проводились в разрешении 1920х1080. Настройки графики максимальные.

Crysis3

Far Cry4

The Witcher 3: Wild Hunt

GTA 5

Тест системы охлаждения

Для теста использовались

MSI Afterburner, MSI Kombustor 2.6

Тест Run Stress Test в течении 15 минут

В первом проходе вентиляторы на автоматическом режиме работы.

Во втором проходе вентиляторы зафиксированы на 25%.

Система охлаждения отлично выполняет свою работу. При фиксированной скорости оборотов в 25%, температура не превысила 80 градусов.Ну и в плюс можно занести то, что в автоматическом режиме, вентиляторы можно выставить на включение по определённой температуре. По умолчанию это 79 градусов. До этого они бездействуют.

Выводы.

В настоящее время видеокарта полностью справляется со своими *адачами. Имеет качественную и тихую систему охлаждения, которая даже на 100% оборотов вентиляторов не напрягает своим шумом, даже если у вас открыт корпус. Имеет второй, после GIGABYTE, заводской разгон.

Единственное, что можно отнести к минусам, очень малый разгонный потенциал. Но, это моё личное мнение, когда видеокарта перестанет отвечать реалиям времени, то и разгон уже не поможет, да и будет проще заменить на современную, чем возиться с разгоном.

Плюсы.

Качественная и тихая система охлаждения.

Достаточная производительность.

Минусы.

Небольшой разгонный потенциал.

Скромная комплектация.

Заключение.

В современных реалиях, видеокарта уверенно показывает хороший результат. Даёт возможность играть во все игровые новинки на максимальных настройках графики.

P.S. Я прошу извинить меня, за звёздочки в некоторых словах. Но видит бог в этом нет моей вины, так уж настроен антимат, что некоторые технические термины стали вдруг нехорошими словцами.

Почему видеокарта имеет низкий балл в тесте Lumion Benchmark?

1. Проверьте, соответствует ли видеокарта минимальным системным требованиям

1.1: Удостоверьтесь, соответствует ли видеокарта минимальным требованиям или превышает их:

2. Убедитесь, что установлены последние обновления

2.1: Следующий шаг — убедиться, что установлена последняя версия драйвера видеокарты и все доступные обновления Windows:

3. Убедитесь, что Ваш компьютер использует нужную видеокарту

Если вы используете ноутбук, возможно, у него есть две видеокарты: быстрая и медленная.

3.1: Пожалуйста, убедитесь, что Lumion использует быструю графическую карту. Ноутбук также должен быть подключен к сети, а не использовать заряд батареи.

4. Проверьте кабели при использовании двух мониторов.

4.1: Если на Вашем компьютере установлены две видеокарты (например, быстрая и медленная), и он подключен к 2 мониторам, Вам необходимо убедиться, что на мониторе, который (физически) подключен к быстрой, открывается окно Lumion.

Программа не переключится на быструю видеокарту карту, если Вы запустите Lumion на мониторе, который подключен к медленной видеокарте.

Обратите внимание, что вы не можете просто переместить окно на этот монитор — на нем должно запуститься окно Lumion. В противном случае Lumion будет использовать более медленную видеокарту.

5. Запустите другие тесты производительности

5.1: Поскольку тест Lumion Benchmark очень быстрый и поверхностный, мы рекомендуем вам протестировать свой ПК с помощью гораздо более точных утилит.

Несколько примеров — 3DMark Basic Edition и PassMark Performance Test. Получив результаты тестов, Вы можете сравнить их с ПК с аналогичными конфигурациями.

6. Какие параметры измеряет тест?

Lumion 8.0 и новее:

Оценка видеокарты дает приблизительное представление о том, как быстро будут рендериться видеоролики. На неё (в основном) не влияет активность процессора в фоновом режиме во время теста Benchmark. Однако если во время выполнения теста Lumion Benchmark активность центрального процессора составляет 100%, показатель видеокарты может быть на 15% ниже.

Чтобы убедиться, что загрузка процессора не влияет на оценку, следуйте этим инструкциям:

Lumion 7.5 и более ранние версии:

Оценка видеокарты дает только приблизительное представление об ожидаемой производительности в реальном времени, то есть не о том, как быстро будут рендериться видеоролики. Если во время теста производительности в фоновом режиме наблюдается значительная загрузка центрального процессора, это существенно повлияет на оценку графической карты (и оценку ЦП). Например, если вы пытаетесь запустить тест Benchmark, когда Windows ещё не загрузилась. Кроме того, антивирусное программное обеспечение может сканировать жёсткий диск в фоновом режиме.

Чтобы убедиться, что загрузка процессора не влияет на оценку, следуйте этим инструкциям:

Обзор NVIDIA GeForce RTX 3060 для ноутбуков – тестирование видеокарты

12.07.2021

Это первый из обзоров видеокарт NVIDIA GeForce RTX 30 для ноутбуков. Начинается серия обзоров с GeForce RTX 3060, самой доступной из трех новых мобильных графических процессоров Ampere, выпущенных на данный момент.

GeForce RTX 3060 для ноутбуков использует графический процессор Nvidia GA106 с 3840 разблокированными ядрами CUDA, что даже больше, чем у десктопного эквивалента. Существует ряд конфигураций мощности, которые могут использовать OEM-производители, от 60 до 115 Вт, что обеспечивает повышенную тактовую частоту от 1283 МГц до 1703 МГц в зависимости от варианта, который вы приобретаете. Одним из ключевых моментов этого поколения видеокарт является то, что NVIDIA удаляет метку «Max-Q», вместо этого давая всем конфигурациям от модели 60 Вт (ранее Max-Q) до 115 Вт (Max-P) одно и то же название “GeForce RTX 3060 для ноутбуков”.

Конфигурация памяти для всех вариантов ноутбуков RTX 3060 – 6 ГБ GDDR6 на 192-битной шине с тактовой частотой 14 или 12 Гбит/с в зависимости от класса мощности. Поскольку это новый графический процессор с архитектурой Ampere, он построен на 8-нанометровом технологическом узле Samsung и обладает всеми новыми архитектурными преимуществами, такими как ядра Tensor третьего поколения, ядра трассировки лучей второго поколения и два конвейера FP32.

В частности, для ноутбуков Nvidia представила ряд новых технологий, таких как Dynamic Boost 2.0, WhisperMode 2.0 и Resizable BAR, в дополнение к предыдущим технологиям, таким как Advanced Optimus. Все видеокарты RTX 30 могут их использовать, однако не все эти функции обязательны для использования производителем ноутбука.

В этом обзоре протестировано два варианта RTX 3060 для ноутбуков: одна с базовой мощностью 80 Вт, а другая с базовой мощностью 115 Вт. Обратите внимание, что указывается именно «базовая мощность», поскольку обе видеокарты поставляются с Dynamic Boost 2.0, который включен по умолчанию. Это уравновешивает нагрузку на систему во время игры, а в некоторых ситуациях, когда загрузка ЦП невелика, это позволяет RTX 3060 работать на 15 Вт выше. Учитывая, что эта функция включена по умолчанию в обеих системах, ноутбуки будет протестированы именно с ней, а диапазон мощности мы укажем в таблицах тестов.

Первый ноутбук с видеокартой RTX 3060 мощностью 115–130 Вт – это XMG Apex 17, мощная система с отличным охлаждением. RTX 3060 внутри него имеет базовую частоту 1387 МГц и тактовую частоту разгона 1702 МГц, а также память 14 Гбит/с. Он поддерживает Dynamic Boost и Resizable BAR, но не поддерживает WhisperMode или Advanced Optimus.
XMG Apex работает на новом гибридном процессоре Ryzen 7 5800H,который только что был выпущен. Также в нем 16 ГБ двухканальной памяти DDR4-3200 и 17-дюймовый дисплей 1080p 144 Гц.

Второй ноутбук RTX 3060 – это еще один ноутбук XMG Apex 17, но с конфигурацией мощности видеокарты 80-95 Вт. Ноутбук представляет собой немного другую модель с более тонким корпусом и меньшим кулером. Тактовые частоты составляют базовую 900 МГц и повышенную 1425 МГц, также с памятью 14 Гбит/с. Этот ноутбук поддерживает функции Dynamic Boost и WhisperMode, но не поддерживает BAR с изменяемым размером или Advanced Optimus. Возможно, отсутствие Resizable BAR связано с использованием процессора Intel. Также есть 16 ГБ двухканальной памяти DDR4-3200 и 17-дюймовый дисплей 1080p 144 Гц.

Тестирование NVIDIA GeForce RTX 30 для ноутбуков

Cinebench R20

Тестирование начинаем с некоторых старых игр, у которых есть много данных для сравнения, а затем перейдем к более новым тестам. Shadow of the Tomb Raider протестирована первой, и сразу же мы видим довольно приличные результаты.

В этой игре нет большой разницы в производительности между ноутбуками RTX 3060. Но модель с RTX 3060 мощностью 80-95 Вт обеспечивает на 17% больше производительности, чем ноутбук с RTX 2060 мощностью 90 Вт. Таким образом, при аналогичной конфигурации питания, мы получаем приличный прирост производительности с новой видеокартой серии RTX 30. Если вы давно не меняли ноутбук, то при смене, например с GTX 1060 на RTX 3060 вы получите 65%-ый прирост производительности при той же мощности питания.

Metro Exodus

В Metro Exodus RTX 3060 показывает великолепный результат, особенно с конфигурацией мощности 115 Вт. При 80 Вт мы видим на 16% больше производительности, чем у RTX 2060, и 305-ый разрыв при 115 Вт. Если вы обновляете старую систему, то разница будет гораздо более существенной.

Control

Control сильно ограничена видеокартой на ноутбуках и демонстрирует один из самых высоких приростов производительности для RTX 3060 по сравнению с RTX 2060 при разрешении 1080p. Мы получаем на 27% больше кадров при сравнении конфигураций с 80-95 Вт и на 21% больше при сравнении максимальных конфигураций с 115 Вт.

Borderlands 3

Borderlands 3 демонстрирует значительное улучшение производительности c RTX 3060: частота кадров на 17% выше в конфигурациях с 80-95 Вт и на 19% выше в конфигурациях с 115-130 Вт по сравнению с RTX 2060. Это делает 3060 примерно на 5% быстрее, чем RTX 2070 Super Max-Q в конфигурации с более низким энергопотреблением или равной ей в конфигурации с более высоким энергопотреблением.

Red Dead Redemption 2

Red Dead Redemption 2 показывает один из самых сильных результатов в пользу RTX 3060, выдавая производительность больше чем у RTX 2070 Super при одинаковой мощности.
RTX 3060 на 24% быстрее, чем RTX 2060 в обоих классах мощности, и почти вдвое быстрее, чем старая GTX 1060. Сейчас самое время подумать о том, чтобы отказаться от вашего старого ноутбука на Pascal в пользу чего-то более нового.

Tom Clancy’s Rainbow Six Siege

С новыми процессорами AMD мы больше не страдаем от огромного снижения производительности в Tom Clancy’s Rainbow Six Siege. Поэтому оба ноутбука на RTX 3060 демонстрируют одинаковый результат в этой игре и отличными показателями FPS.

RTX 3060 в Tom Clancy’s Rainbow Six Siege значительно превосходит видеокарты предыдущего поколения и вы можете смело брать ноутбук с 240 Гц дисплеем.

Assassin’s Creed Valhalla

В Assassin’s Creed Valhalla RTX 3060 превосходит RTX 2070 Super Max-Q на пару кадров, и обеспечивает прирост производительности на 17 % по сравнению с RTX 2060 в аналогичном классе мощности. С RTX 3060 115 Вт можно играть в AC Valhalla на очень высоких настройках с разрешением 1080p, чего раньше можно было сделать только с RTX 2080 Super.

Cyberpunk 2077

Cyberpunk 2077 требует мощной видеокарты для приличной частоты кадров при разрешении 1080p на ноутбуке, и лучше уменьшить настройки качества до средних, чтобы получить более 60 кадров в секунду. RTX 3060 выдает на 17% FPS, чем RTX 2060 при низкой мощности, однако отстает от RTX 2070 Super в этой игре.

Watch Dogs Legion

Watch Dogs Legion, даже в разрешении 1080p на ультра настройках, оказывается сложной задачей для RTX 3060, и отчасти это сводится к ультра настройкам, требующим 8 ГБ видеопамяти. У RTX 3060 всего 6 ГБ, поэтому ее минимальный FPS отстает от показателя у RTX 2070 Super, несмотря на аналогичную среднюю частоту кадров. По-прежнему наблюдается существенный прирост производительности – на 29% по сравнению с RTX 2060, еще одной видеокартой с 6 ГБ видеопамяти.

Hitman 3

Hitman 3 – новейшая игра, и для этого теста мы используем встроенный бенчмарк на уровне Dartmoor. Это интенсивный тест как для процессора, так и для графического процессора, при этом RTX 3060 показывает хорошие результаты по сравнению с другими видеокартами в таблице.

RTX 3060 всего на 15% быстрее, чем RTX 2060 при аналогичных мощностях, но полностью доминирует над конфигурацией с GTX 1060.

Dirt 5

Результаты, представленные в последнем тесте, не слишком сильно отличаются от предыдущих, но в некотором смысле это более новая и более производительная игра. Обладая на 17 % большей производительностью, чем RTX 2060, RTX 3060 позволяет конфигурации 80-95 Вт соответствовать RTX 2070 Super Max-Q.

Сравнение GeForce RTX 3060 и GeForce RTX 2060

При сравнении RTX 3060 (от 80 до 95 Вт) с включенной функцией Dynamic Boost со средним показателем для ноутбуков RTX 2060, работающих на 90 Вт, RTX 3060 в среднем на 19% быстрее в том же классе мощности.

Некоторые результаты были не такими высокими для новой видеокарты серии RTX 30, например в Gears 5 и Cyberpunk с включенной трассировкой лучей, в то время как другие игры, такие как Control и Watch Dogs Legion, могли быть почти на 30% впереди на новом графическом процессоре Nvidia.

В классе более высокой мощности – 115-130 Вт – у нас не так много игр, которые можно было бы использовать для сравнения. Тем не менее из проведенных тестов мы можем сказать, что RTX 3060 в среднем на 22% быстрее, чем RTX 2060.

Сравнение GeForce RTX 3060 и GeForce RTX 2070 Super Max-Q

RTX 3060 обеспечивает производительность, аналогичную RTX 2070 Super, при аналогичном классе мощности. Единственным исключением здесь является Cyberpunk 2077 с включенной трассировкой лучей, где 6 ГБ видеопамяти недостаточно и вызывает значительную потерю производительности по сравнению с 2070 Super с 8 ГБ. Уберите этот результат, и 3060 будет в среднем на пару процентов быстрее.

Сравнение GeForce RTX 3060 115-130W и GeForce RTX 3060 80-95W

Подобно тому, что мы наблюдали у предыдущих поколений, конфигурация с более высокой мощностью 115 Вт в среднем на 11% быстрее, чем конфигурация RTX 3060 с 80 Вт.

Заключение

RTX 3060 для ноутбука обеспечивает заметное повышение производительности по сравнению с предыдущими моделями того же класса и уровня мощности. Когда мы сравниваем RTX 3060 с RTX 2060 мы получаем в среднем на 20% лучшую производительность. Таким образом, если у нас есть два ноутбука с одинаковым дизайном, одинаковой охлаждающей способностью и, вероятно, аналогичной ценой, новая видеокарта серии RTX 30 обеспечит приличный прирост производительности в современных играх с разрешением 1080p.

  • Lenovo Legion 5 17ACH6H (82JY000ARU)

    • процессор

      AMD Ryzen 5 5600H 3300 МГц

    • видеокарта

      NVIDIA GeForce® RTX 3060 6 ГБ для ноутбуков

    • оперативная память

      16 ГБ, DDR4

    • SSD накопитель

      512 ГБ SSD

    • дисплей

      17.3″ 1920×1080 144 Гц

    • операционная система

      Windows 10

  • HP Omen 15-en1035ur

    • процессор

      AMD Ryzen 5 5600H 3300 МГц

    • видеокарта

      NVIDIA GeForce® RTX 3060 6 ГБ для ноутбуков

    • оперативная память

      16 ГБ, DDR4

    • SSD накопитель

      512 ГБ SSD

    • дисплей

      15.6″ 1920×1080 144 Гц

    • операционная система

      Без операционной системы

  • Lenovo Legion 5 17ACH6H (82JY000CRU)

    • процессор

      AMD Ryzen 7 5800H 3200 МГц

    • видеокарта

      NVIDIA GeForce® RTX 3060 6 ГБ для ноутбуков

    • оперативная память

      16 ГБ, DDR4

    • SSD накопитель

      512 ГБ SSD

    • дисплей

      17.3″ 1920×1080 144 Гц

    • операционная система

      Windows 10

  • HP Omen 15-en1034ur

    • процессор

      AMD Ryzen 5 5600H 3300 МГц

    • видеокарта

      NVIDIA GeForce® RTX 3060 6 ГБ для ноутбуков

    • оперативная память

      16 ГБ, DDR4

    • SSD накопитель

      512 ГБ SSD

    • дисплей

      15.6″ 1920×1080 144 Гц

    • операционная система

      Windows 10

  • Lenovo Legion 5 Pro 16ACH6 (82JQ0010RU)

    • процессор

      AMD Ryzen 5 5600H 3300 МГц

    • видеокарта

      NVIDIA GeForce® RTX 3060 6 ГБ для ноутбуков

    • оперативная память

      16 ГБ, DDR4

    • SSD накопитель

      512 ГБ SSD

    • дисплей

      16″ 2560×1600 165 Гц

    • операционная система

      Windows 10

  • Lenovo Legion 5 15ACH6H (82JU0010RU)

    • процессор

      AMD Ryzen 7 5800H 3200 МГц

    • видеокарта

      NVIDIA GeForce® RTX 3060 6 ГБ для ноутбуков

    • оперативная память

      16 ГБ, DDR4

    • SSD накопитель

      512 ГБ SSD

    • дисплей

      15.6″ 1920×1080 165 Гц

    • операционная система

      Windows 10

  • Lenovo Legion 5 17ACH6H (82JY0032RU)

    • процессор

      AMD Ryzen 7 5800H 3200 МГц

    • видеокарта

      NVIDIA GeForce® RTX 3060 6 ГБ для ноутбуков

    • оперативная память

      16 ГБ, DDR4

    • SSD накопитель

      1024 ГБ SSD

    • дисплей

      17.3″ 1920×1080 144 Гц

    • операционная система

      Windows 10

  • HP Omen 15-ek1017ur

    • процессор

      Intel Core i7-10750H 2600 МГц

    • видеокарта

      NVIDIA GeForce® RTX 3060 6 ГБ для ноутбуков

    • оперативная память

      16 ГБ, DDR4

    • SSD накопитель

      1024 ГБ SSD

    • дисплей

      15.6″ 1920×1080 144 Гц

    • операционная система

      Без операционной системы

  • Lenovo Legion 5 Pro 16ACH6 (82JQ000VRU)

    • процессор

      AMD Ryzen 7 5800H 3200 МГц

    • видеокарта

      NVIDIA GeForce® RTX 3060 6 ГБ для ноутбуков

    • оперативная память

      16 ГБ, DDR4

    • SSD накопитель

      1024 ГБ SSD

    • дисплей

      16″ 2560×1600 165 Гц

    • операционная система

      Windows 10

  • Lenovo Legion 5 Pro 16ACH6 (82JQ000XRU)

    • процессор

      AMD Ryzen 5 5600H 3300 МГц

    • видеокарта

      NVIDIA GeForce® RTX 3060 6 ГБ для ноутбуков

    • оперативная память

      32 ГБ, DDR4

    • SSD накопитель

      1024 ГБ SSD

    • дисплей

      16″ 2560×1600 165 Гц

    • операционная система

      Windows 10

  • MSI Pulse GL66 11UEK-208RU

    • процессор

      Intel Core i7-11800H 2300 МГц

    • видеокарта

      NVIDIA GeForce® RTX 3060 6 ГБ для ноутбуков

    • оперативная память

      8 ГБ, DDR4

    • SSD накопитель

      512 ГБ SSD

    • дисплей

      15.6″ 1920×1080 144 Гц

    • операционная система

      Windows 10

  • ASUS ROG Zephyrus G14 GA401QM-HZ087T

    • процессор

      AMD Ryzen 9 5900HS 3300 МГц

    • видеокарта

      NVIDIA GeForce® RTX 3060 6 ГБ для ноутбуков

    • оперативная память

      16 ГБ, DDR4

    • SSD накопитель

      1024 ГБ SSD

    • дисплей

      14″ 1920×1080 144 Гц

    • операционная система

      Windows 10

Обзор и тестирование мобильной видеокарты GeForce GTX 1650 Ti

Весной 2020 года компания NVIDIA представила бюджетную видеокарту для ноутбуков GeForce GTX 1650 Ti. Это усиленная версия GeForce GTX 1650, которая примечательна тем, что в настольном сегменте Ti-версия так и не вышла. В данном обзоре мы разберем особенности GeForce GTX 1650 Ti Mobile и протестируем видеокарту при стандартных частотах и в разгоне.

В основе рассматриваемой видеокарты графический процессор TU117 архитектуры Turing, который не имеет аппаратной поддержки трассировки и DLSS. Первые видеокарты GeForce GTX 1650 для настольных систем дебютировали весной 2019 года. Они получили частично урезанный чип с 896 ядрами CUDA. Полная конфигурация TU117 с 1024 потоковыми ядрами и 64 текстурными блоками получила реализацию только в мобильных GeForce GTX 1650 Ti. При этом рабочие частоты GPU немного снизились относительно мобильной GeForce GTX 1650, чтобы удержать TDP в рамках 50 Вт. Шина памяти у всех видеокарт 128 бит, объем памяти 4 ГБ. Для GeForce GTX 1650 Ti стандартном является использованием микросхем GDDR6 с эффективной частотой 12 ГГц, а у GeForce GTX 1650 были разные варианты с GDDR5 и GDDR6.

В итоге имеет преимущество GeForce GTX 1650 Ti над GeForce GTX 1650 в 14% по количеству вычислительных блоков и возросшая на 50% пропускная способность памяти.

 

GeForce GTX 1650 Desktop

GeForce GTX 1650 Ti Mobile

GeForce GTX 1650 Mobile

Архитектура

Turing

Turing

Turing

Ядро

TU117

TU117

TU117

Количество транзисторов, млн. шт

4700

4700

4700

Техпроцесс, нм

12

12

12

Площадь ядра, кв. мм

200

200

200

Количество потоковых процессоров CUDA

896

1024

896

Количество текстурных блоков

56

64

56

Количество блоков ROP

32

32

32

Частота ядра (Base/Boost), МГц

1485-1565

(1410-1590)

1350-1485

1395-1560

Шина памяти, бит

128

128

128

Тип памяти

GDDR5/GDDR6

GDDR6

GDDR5/GDDR6

Эффективная частота памяти, МГц

8000/12000

12000

8000/12000

Объём памяти, ГБ

4

4

4

Интерфейс

PCI-E 3.0

PCI-E 3.0

PCI-E 3.0

Мощность, Вт

75

50

50

Рассмотрим видеокарту составе ноутбука ASUS ROG Strix G15 G512LI.

Характеристики тестовой системы:

  • Процессор Intel Core i5-10300H (2,5-4,5 ГГц)
  • ОЗУ 16 GB DDR4-2933
  • Видеокарта GeForce GTX 1650 Ti 4GB GDDR6
  • Накопитель SSD NVMe SSDPEKNW512G8 512 GB

GeForce GTX 1650 Ti со стандартными характеристиками: базовая частота 1350 МГц, Boost Clock 1485 МГц, память GDDR6 12000 МГц.

Реальный Boost в игровом режиме держался в рамках 1600-1700 МГц, т.е. выше заявленного значения Boost Clock. Такие частоты связаны с низкими рабочими температурами. Стресс-тест 3DMark прогрел GPU до 68 °C, что для мобильной видеокарты очень мало.

Для разгона ноутбук переключался в режим «Турбо», что подразумевает более высокие обороты вентиляторов ASUS ROG Strix G15. Частоту GPU удалось повысить до 1500 МГц по базовому уровню при среднем Boost Clock 1635 МГц (реальный Boost поднялся до 1700-1750 МГц) Разгон памяти пришлось ограничить на уровне 13100 МГц, далее начинались проблемы со стабильностью.

Методика тестирования

3DMark Time Spy

Два прогона. Слева указаны баллы GPU Score, справа общий результат.

Assassin’s Creed Odyssey

Встроенный тест производительности прогонялся несколько раз. Дополнительно задействована утилита MSI Afterburner для контроля минимального fps.

Выбран профиль настроек «Очень высокого», качество облаков понижено до высокого уровня, сглаживание среднего уровня.

Battlefield V

Повторялась определенная последовательность действий в начале миссии «Тиральер».

Максимальное качество графики в DirectX 12.

Control

Тестирование проведено на большой локации «Исследовательская зона», где насыщенные световые эффекты сочетаются с множеством отражений. Выполнялась пробежка с метанием предметов, чтобы генерировать пыль и осколки. Несколько повторов.

Максимальное качество графики High в DirectX 11, сглаживание и эффект размытия отключены.

Death Stranding

Тестовая прогулка по первой дождливой локации. Несколько повторов.

Выбрано наивысшее качество графики (Very High).

Doom Eternal

Выполнялась тестовая пробежка и перестрелка на открытой локации первой миссии.

Выбран уровень графики «Высоко».

Far Cry 5

Тестирование проводилось во встроенном игровом бенчмарке.

Выбран профиль Ultra-качества.

Gears 5

Несколько прогонов встроенного бенчмарка на каждой видеокарте.

Максимальное качество графики Ultra, отключен эффект Motion Blur, понижено качество сглаживания, отключен параметр Async Compute.

Horizon Zero Dawn

Несколько прогонов встроенного бенчмарка.

Выбрано высокое качество графики.

Mafia: Definitive Edition

Для тестирования повторялась погоня из первой главы. Несколько повторов на каждой видеокарте.

Выбрано максимальное качество графики (High).

Mafia II: Definitive Edition

Использовался встроенный бенчмарк.

Максимальное качество графики High без эффектов PhysX APEX.

Ori and the Will of the Wisps

Тестирование проводилось путем повторения определенной последовательности действий на первой локации в темном дождливом лесу.

Red Dead Redemption 2

Несколько повторов встроенного игрового теста.

Все основные параметры в режиме среднего качества.

Resident Evil 3

Переигрывался эпизод в прологе.

Максимальное качество графики в DirectX 11.

Shadow of the Tomb Raider

Задействован стандартный игровой бенчмарк, шесть прогонов.

Стандартный профиль высокого качества и сглаживание TAA в DirectX 12.

Star Wars Jedi: Fallen Order

Повторялась тестовая прогулка по планете Богано. Несколько повторов на каждой видеокарте.

Максимальное качество графики. Отключено динамическое разрешение.

The Outer Worlds

Повторялась тестовая прогулка по первой планете. Стартовая локация в зоне приземления нашего космического корабля.

Максимальное качество графики.

The Witcher 3: Wild Hunt

Сюжетный пролог. Герой с напарником скачут по дороге в селение. Этот момент выбран для измерения производительности при помощи Fraps. Шесть повторов для каждой видеокарты.

Выбрано «запредельное» качество», из постобработки активны только лучи света, затенение SSAO.

Tom Clancy’s The Division 2

Задействован встроенный бенчмарк, который прогонялся по несколько раз на каждой видеокарте.

Выбран профиль высокого качества в DirectX 12.

Watch Dogs: Legion

Задействован стандартный игровой бенчмарк.

Выбран профиль графики High в DirectX 11.


Обзор и тестирование видеокарты GIGABYTE GeForce GTS 450 GECID.com. Страница 1

30-01-2011

Страница 1 Страница 2 Одной страницей

Вопреки не самому удачному запуску первых видеокарт с поддержкой DirectX 11 в марте прошлого года, компания NVIDIA сумела довольно быстро подготовить следующее поколение видеокарт, при разработке которого были устранены многие недочеты 400-ой серии. Стоит отметить, что в основном претензии пользователей и обозревателей касались старших видеокарт линейки GeForce GTX 400. Видеокарты же среднего ценового сегмента (GeForce GTX 460 и GeForce GTS 450) изначально получились довольно удачными продуктами и их продажи до сих пор находятся на высоком уровне. Однако совсем недавно состоялась презентация нового графического процессора NVIDIA GeForce GTX 560 Ti и мы убедились, что инженерам зелёного гиганта удалось создать ещё одно удачное решение, которое во многом превосходит своего предшественника в лице NVIDIA GeForce GTX 460. Что ж, видимо, видеокарты GeForce GTX 400-ой серии начнут постепенно исчезать с витрин магазинов, а их место займёт новое поколение. Что же касается видеокарт на графическом процессоре NVIDIA GeForce GTS 450, то замена им пока не анонсирована и на рынке решения на основе этого GPU могут пробыть ещё довольно долгое время.

В нашей тестовой лаборатории побывало уже несколько видеокарт на основе массового графического процессора NVIDIA GeForce GTS 450 и сегодня мы расскажем вам о ещё одной, а именно GIGABYTE GV-N450-1GI (GeForce GTS 450 с 1 ГБ GDDR5):

В таблице ниже приведены основные спецификации тестируемой видеокарты:

Модель

GIGABYTE GV-N450-1GI

Графическое ядро

NVIDIA GeForce GTS 450 (GF106-250-KA-A1)

Количество универсальных шейдерных процессоров 

192

Поддерживаемые API

DirectX 11 (Shader Model 5.0), OpenGL 4.0

Поддержка фирменных технологий

NVIDIA SLI, NVIDIA CUDA, NVIDIA PureVideo HD, NVIDIA PhysX, NVIDIA 3D Vision

Частота графического ядра, МГц

810

Частота шейдерного блока, МГц

1700

Частота памяти (эффективная), МГц

902 (3608)

Объём памяти, МБ

1024

Тип памяти

GDDR5

Ширина шины памяти, бит

128

Тип шины

PCI-E 2.1 x16

Максимальное разрешение

До 2560 x 1600 (Dual-link DVI) или 1920×1200 (Single-link DVI)
До 1920×1080 (HDMI)
До 2048×1536 (VGA через переходник)

Интерфейсы вывода изображения

2xDVI-I, mini-HDMI

Поддержка HDCP и декодирования HD-видео

Есть
Декодирование MPEG-2, MPEG-4, DivX, WMV9, VC-1 и H.264/AVC

Минимальные требования к блоку питания, Вт

400

Драйверы

Свежие драйверы можно скачать со страницы поддержки или сайта производителя GPU.

Сайт производителя

http://www.gigabyte.ua/

Все цены на GIGABYTE GV-N450-1GI

Компания GIGABYTE позиционирует рассматриваемую видеокарту, как разогнанную производителем, однако прирост частоты GPU составляет лишь 27 МГц, а памяти и того меньше- 8 МГц эффективной частоты. Вряд ли такое изменение частотной формулы будет замечено пользователем, однако позиционирование видеокарты на рынке как «разогнанной» позволяет установить на неё более высокою цену. Что же касается остальных характеристик видеокарты, то никаких отличий от «референсного» образца здесь нет. Напомним, что об архитектуре графического ядра GF 106 и его сравнении с основными конкурентами и старшими моделями в линейке GeForce вы можете прочитать в одной из наших предыдущих статей.

Видеокарта GIGABYTE GeForce GTS 450 1 ГБ поставляется в небольшой красочной коробке, на лицевой стороне которой производитель указал лишь индекс модели, объём видеопамяти и несколько поддерживаемых видеокартой фирменных технологий NVIDIA. Также здесь присутствует упоминание об улучшенной системе охлаждения с медным сердечником и заводском разгоне.

Обратная сторона упаковки не намного информативнее: несколько рекламных описаний современных технологий, краткие характеристики видеокарты на девяти языках (включая русский), а также требования к системе, в которую планируется установка видеокарты GIGABYTE GeForce GTS 450 1 ГБ. Отметим лишь, что блок питания в такой системе должен обладать мощностью не менее 400 Вт и быть способным выдавать 22 А по линии 12В.

В комплекте с видеокартой мы обнаружили следующее:

  • Диск с драйверами и утилитами;
  • Переходник DVI-to-VGA;
  • Переходник с mini-HDMI на HDMI;
  • Переходник с двух 4-контактных периферийных разъёмов питания на один 6-контактный разъём питания видеокарты.

Такой комплект поставки довольно стандартный для видеокарт этого ценового сегмента. Его не назовешь богатым, однако в нем есть все необходимое для комфортного использования графического ускорителя. Отнести к недочетам отсутствие мостика SLI можно лишь условно, ведь сегодня практически все материнские платы, поддерживающие эту технологию, имеют такой мостик в комплекте поставки.

Набор интерфейсов для вывода изображения не претерпел никаких изменений по сравнению с эталонным образцом. Он так же представлен двумя портами DVI-I и одним mini-HDMI (с возможностью передачи 7.1-канального звука). Учитывая наличие в комплекте поставки сразу двух переходников, подключение к видеокарте монитора, проектора или плазменной панели, не вызовет сложностей у подавляющего большинства пользователей.

Печатная плата видеокарты GIGABYTE GV-N450-1GI выполнена на текстолите синего цвета. Она спроектирована на основе эталонного дизайна и такую же плату компания GIGABYTE применяет и для других своих решений на основе графического процессора NVIDIA GeForce GTS 450.

На обратной стороне платы расположены четыре из восьми чипов памяти, которые, к сожалению, лишены всякого охлаждения. Такое решение выглядит довольно спорным, ведь на лицевой стороне платы вполне достаточно места для размещения восьми чипов. На обратной стороне платы также распаян ШИМ-контроллер NCP5395T 3+1-фазной системы питания видеокарты.

Отметим, что помимо самой шины PCI Express питание видеокарты обеспечивается через 6-контактный разъём на заднем торце платы.

Центральной частью тестируемой видеокарты является графический чип NVIDIA GF 106 (Fermi), произведенный с соблюдением норм 40 нм техпроцесса. Он включает 192 универсальных шейдерных процессоров (или ядер CUDA по терминологии NVIDIA) и 16 блоков растеризации, а обмен данными с видеопамятью осуществляется через 128-битную шину. Остальные его характеристики приведены на скриншоте выше.

Видеопамять общим объёмом 1 ГБ набрана с помощь 8-ми микросхем по 128 МБ, половина из которых расположена на обратной стороне печатной платы. Чипы произведены компанией SAMSUNG, промаркированы K4G10325FE-HC05 и имеют время доступа 0,5 нс. Это теоретически позволяет им работать на эффективной частоте вплоть до 4000 МГц. Напомним, что изначально эффективная частота видеопамяти на видеокарте GIGABYTE GV-N450-1GI составляет 3608 МГц, а значит можно попробовать её ускорить при помощи разгона и получить при этом некоторый прирост производительности.

Помимо незначительного заводского разгона, видеокарта GIGABYTE GeForce GTS 450 1 ГБ (GV-N450-1GI) отличается от множества решений на графическом процессоре NVIDIA GeForce GTS 450 применением альтернативной системы охлаждения. Однако в этот раз это не продвинутый фирменный кулер WindForce 2Х, а более простая система охлаждения, состоящая из пластикового кожуха с 80 мм вентилятором и алюминиевого радиатора с медным сердечником. К сожалению, радиатор соприкасается лишь с графическим ядром, в то время как чипы памяти и силовые элементы питания не снабжены дополнительными радиаторами. Мы провели наше стандартное тестирование с помощью утилиты FurMark для оценки эффективности такой системы охлаждения.

При автоматическом регулировании скорости вращения вентилятора, в режиме максимальной нагрузки графическое ядро нагрелось всего до 60 градусов, а кулер, судя по показаниям мониторинга, работал при этом на 17 % своей мощности, создавая практически незаметный уровень шума.

К нашему удивлению, после того, как мы вручную установили скорость вращения вентилятора на максимум, температура упала всего на 2 градуса, но кулер продолжал работать довольно тихо.

При отсутствии нагрузки, частоты графического ядра и памяти автоматически понижаются, что приводит к их меньшему тепловыделению и меньшему энергопотреблению видеокарты.

Остается лишь сказать, что несмотря на довольно простую конструкцию, система охлаждения видеокарты GIGABYTE GV-N450-1GI отлично справляется со своей задачей, демонстрируя высокий уровень эффективности охлаждения и работая при этом достаточно тихо.

Обзор видеокарты Radeon Vega 7

Описание

Технические характеристики

Год выхода2020
Сегментинтегрированное графическое ядро
Базовая частота300 Mhz
Игровая частота—-
Turbo частота1600-1900 Mhz*
Шина
Объём памятидинамический, до 2 гигабайт
Потоковые процессоры448
Текстурные блоки28
Блоки растеризации7
Архитектура (ядро)GCN 5.0
Техпроцесс7 nm
TDP10W(моб), 45W

* — максимальная частота варьируется в зависимости от модели

Поддерживаемые API, технологии: OpenCL 2.0, OpenCL 4.6, DirectX 11, DirectX 12, Shader Model 6.0, AMD FreeSync
Поддерживаемые операционные системы: Windows 10 x86-x64, Linux x86-x64

В каких процессорах используется: Ryzen 7 4800H, Ryzen 7 4700U, Ryzen 5 PRO 4650G

Обзор графического ядра Radeon Vega 7

Графическое ядро(GPU) Radeon Vega 7 появилось в 2020 году в составе средне — бюджетных настольных и мобильных гибридных процессоров AMD. GPU исполнен по технологическим нормам 7нм и несёт в себе архитектуру GCN 5.0, имеет базовую частоту в 300 мегагерц и максимальную 1900 мегагерц(для модели Ryzen 5 PRO 4650G, в моделях Ryzen 7 4800H, Ryzen 7 4700U максимальная частота — 1600 мегагерц). Графическое ядро не имеет собственную видеопамять, а забирает память из оперативной(не более двух гигабайт), что делает графическую подсистему крайне зависимой от частоты ОЗУ(чем частота выше, тем производительность GPU лучше). Ядро крайне чувствительно к двухканальному режиму оперативной памяти(когда стоят две планки памяти одинакового объёма и частоты) и показывает при данном режиме значительно лучшую производительность по сравнению с одноканальным режимом. Radeon Vega 7 является бюджетным интегрированным графическим яром и обеспечит комфортную производительность в нетребовательных современных играх, таких как DOTA2, CS:Source, CS:GO, World of Tanks со средними настройками графики и разрешением 720p(1280*720) или низкими настройками графики и разрешением 1080p(1920*1080). В современных требовательных играх: Ведьмак 3, Red Dead Redemption 2, при разрешении 720p(1280*720) и минимальных графических настройках, частота кадров составит 30-35, с проседанием в самых сложных сценах до 20-25. В немолодых играх на подобии GTA V и Tomb Raider 2013, Radeon Vega 7 обеспечит высокое комфортное количество фпс при средне — высоких настройках графики.

Дополнительная информация:
— Для дополнительного увеличения производительности в играх, отключайте в графических настройках параметр «вертикальная синхронизация».

Скачать графический драйвер Radeon Vega 7

UserBenchmark: Intel UHD Graphics 600

Самый быстрый графический процессор (основной) со средней скоростью 100%

Устройство (1E50 8003) 1 ГБ

Драйвер: igdumdim64.dll Ver. 26.20.100.6813

Освещение 2,2

Отражение 3,1

Параллакс 2,4

MRender 4

Плотность 2,4

Сплаттинг 4.3

Acer (1025 1430) 1 ГБ

Драйвер: igdumdim64.dll Ver. 27.20.100.8280

Освещение 2,1

Отражение 2.8

Параллакс 2,5

MRender 3,7

Плотность 2.3

Сплаттинг 4

л.с. (103C 855E) 1 ГБ

Драйвер: igdumdim64.dll Ver. 27.20.100.8853

Освещение 2,1

Отражение 1.2

Параллакс 1.9

MRender 4.5

Гравитация 2,1

Сплаттинг 3,2

Легенда (17AA 3724) 1 ГБ

Драйвер: igdumdim64.dll Ver. 27.20.100.8783

Освещение 2

Отражение 1.6

Параллакс 2.3

MRender 2.7

Плотность 2.3

Сплаттинг 3,5

л.с. (103C 85F5) 1 ГБ

Драйвер: igdumdim64.dll Ver. 27.20.100.8935

Освещение 1.9

Отражение 1.3

Параллакс 2,2

MRender 2.6

Гравитация 2,1

Сплаттинг 3,2

Legend (17AA 39FE) 1 ГБ

Драйвер: igdumdim64.dll Ver. 26.20.100.7870

Освещение 1,8

Отражение 1.1

Параллакс 1,3

MRender 1,6

Плотность 1,1

Сплаттинг 1,8

л.с. (103C 8546) 1 ГБ

Драйвер: igdumdim64.dll Ver. 27.20.100.8853

Освещение 0,6

Отражение 0,9

Параллакс 0,9

MRender 1.2

Плотность 0,6

Сплаттинг 1,2

Как протестировать вашу видеокарту (GPU)

Конечно, тестирование видеокарты может показаться ракеткой, но это не так сложно, как вы думаете.Закатайте рукава, потому что это руководство покажет вам, насколько легко, приятно и важно протестировать ваш графический процессор. И не только при разгоне! Мы рассмотрим тесты производительности и стабильности.

Почему вы должны тестировать свой графический процессор

Во-первых, однако, вот почему вы должны тестировать производительность своей видеокарты, даже если вы не пытаетесь подняться на вершину конкурентных диаграмм разгона:

  • Чтобы получить базовую производительность метрика, чтобы вы знали, работает ли ваш графический процессор должным образом, сравнивая с другими стандартными результатами.
  • Чтобы иметь возможность сравнить производительность вашего текущего ПК с будущими обновлениями оборудования. Какую производительность вы получите, купив новую видеокарту? Теперь вы знаете!
  • Для проверки стабильности и других важных показателей, таких как термики, тактовая частота и т. Д.

Во-первых, тест на стабильность и температуру

Тьяго Тревизан / IDG

Тест Unigine’s Heaven

Теперь, когда вы знаете, почему нужно тестировать, самое время перейти к тесту , как .Начнем со стабильности и жизненно важных функций. Это редко, но иногда видеокарта может быть неисправной на заводе. Это может означать мертвую карту, но во многих случаях вы получите так называемые «артефакты» — в основном недостатки изображения, мерцание или даже пульсацию цветов.

Первая программа, которую мы собираемся использовать, — это Unigine Heaven 4.0. Он бесплатный для личного использования и запускает цикл графической среды, которая действительно использует ваш графический процессор. Первым делом здесь необходимо убедиться, что ваша видеокарта может работать без выключения или отображения каких-либо странных графических сбоев, поэтому вы должны позволить ей работать Небесами не менее 30 минут, чтобы дать графическому процессору нагреться до температуры.

Если все в порядке, вы также захотите следить за жизненно важными показателями. Они будут отображаться в правом верхнем углу вместе с информацией о вашем графическом процессоре.

Первым важным является температура, которая может указывать на различные потенциальные проблемы с вашим оборудованием и воздушным потоком корпуса. Если ваш графический процессор быстро достигает максимального предела температуры, это может указывать на редкую (но возможную) проблему с его термопастой или (что более вероятно) на ограничение воздушного потока в вашем случае, если вентиляторы не имеют достаточного зазора для получения холодного воздуха.

Тьяго Тревизан / IDG

Специальная установка графического процессора с жидкостным охлаждением, созданная автором.

Хорошим примером недавних проблем является температура памяти GDDR6X в GeForce RTX 3090 Founders Edition от Nvidia. Вы никогда не узнаете без стресс-тестирования графического процессора, что память может приблизиться к пределу температуры VRAM, потенциально снижая вашу производительность. (Некоторые люди успешно обновили свои термопрокладки и заметили значительное улучшение)

Упоминается в этой статье

Как узнать нормальную рабочую температуру ядра графического процессора видеокарты? Он зависит от модели (введите в Google название вашего графического процессора, чтобы узнать подробности), но основные кулеры эталонного стиля часто могут работать до 84 градусов по Цельсию, в то время как некоторые более крупные видеокарты с огромными радиаторами и несколькими вентиляторами — например, фантастическая серия EVGA FTW3 — могут быть ниже в 60-70-е гг.Вы узнаете, находитесь ли вы в опасной зоне, если температура у вас выше 80 и ваши вентиляторы агрессивно вращаются; это часто указывает на плохой обдув корпуса. Добавьте вентиляторы или откройте панели корпуса, и температура должна улучшиться. Это прямая выгода от знаний, полученных при тестировании производительности вашего графического процессора.

Вы также можете следить за тактовой частотой ядра и памяти вашего графического процессора, чтобы убедиться, что он работает в соответствии с предполагаемыми характеристиками. Более простой способ — просто запустить опцию тестирования в Unigine Heaven, а затем вы сможете сравнить свой результат с другими в Интернете и получить хороший базовый показатель, чтобы убедиться, что вы находитесь на приблизительном уровне.

Как протестировать свой графический процессор, чтобы измерить базовую производительность

Тьяго Тревизан / IDG

Пример результатов 3DMark Time Spy и оценочной производительности игры.

После того, как вы проверили стабильность и термические характеристики, вы можете повысить свою степень бенчмарка до докторской, проверив производительность. Здесь мы воспользуемся популярным набором тестов 3DMark, который включает несколько бесплатных режимов. Time Spy (который тестирует графическую производительность DirectX 12) и Port Royal (производительность трассировки лучей) являются одними из наиболее широко используемых тестов.В 3DMark даже есть онлайн-зал славы, где вы можете сравнить свои результаты с другими!

На какие цифры нужно следить? Это просто. Есть одна общая оценка, а затем отдельные оценки для CPU и GPU, если вы используете Time Spy. У Port Royal просто есть баллы GPU и общий балл. Если вы вносите изменения в какой-либо компонент на своем ПК, отдельные оценки дадут вам лучшее представление о том, как они влияют на общую оценку. (Это особенно полезно, если вы хотите разогнаться.Взгляните на нашу статью об инструменте автоматического разгона Nvidia в GeForce Experience.)

Тьяго Тревизан / IDG

Полная страница оценок и результатов теста Port Royal в 3DMark.

Отметка

3DMark также может показать вам приблизительную частоту кадров, которую вы получите в выбранной игре и разрешении, что является очень полезной информацией для оценки вашей производительности и сравнения ее с тем, что могут дать вам новые обновления. Если вы занимаетесь разгоном, запуск 3DMark также может выявить нестабильность в вашей системе, например сбои, поэтому вы можете скорректировать свои числа и повторить попытку.

Как протестировать ваш GPU в играх

Еще один очень интересный способ тестирования вашего GPU — использовать автоматические тесты, встроенные во многие игры. (Ознакомьтесь с нашим обзором GeForce RTX 3080 Ti, чтобы увидеть некоторые из наиболее распространенных, или списком игр со встроенными тестами на всегда фантастической вики по компьютерным играм.)

Thiago Trevisan / IDG

Обзор результатов встроенного теста Shadow of the Tomb Raider .

Shadow of the Tomb Raider — мой любимый, потому что вы можете легко увидеть производительность кадров в секунду, которую вы получаете в каждой сцене, что дает вам хорошее представление о том, как игра будет работать в целом.В качестве бонуса, если вы обновите свою видеокарту или другое оборудование ПК, вы можете повторно запустить тест, и вы точно будете знать, какую прибыль вы получили.

Более продвинутые игроки могут использовать программное обеспечение, такое как Fraps или OCAT, для ручного тестирования производительности игр, в которых нет встроенного теста производительности, но это потребует больше времени, тестирования и определения повторяемого сценария тестирования, чтобы избежать потенциальной сцены отклонение от сцены.

Тьяго Тревизан / IDG

Игра продолжается.

Вот и все! Вы перешли на профессиональный уровень по тестированию производительности графических процессоров.Теперь вы знаете, как проверить, что ваша видеокарта стабильна и полностью функционирует, как проверить показатели производительности, чтобы убедиться, что ваш графический процессор соответствует спецификации, и как измерить базовую производительность вашего оборудования для будущих сравнений обновлений. А кто знает? Вам может так понравиться бенчмаркинг, что вы превратите его в хобби!

Примечание. Когда вы покупаете что-то после перехода по ссылкам в наших статьях, мы можем получить небольшую комиссию.Прочтите нашу политику в отношении партнерских ссылок для получения более подробной информации.

Как протестировать видеокарту

Хотите узнать, как протестировать вашу видеокарту? Разумный вопрос. В конце концов, вы только что потратили приличную сумму денег на графический процессор NVIDIA или AMD, так почему бы не дать этому зверюгу полететь и посмотреть, на что он действительно способен?

Вы, конечно, можете проигнорировать опасно захватывающую кроличью нору, связанную с частотой кадров и тактовой частотой, и просто понять, почему вы купили карту в первую очередь (а именно, получать удовольствие от игр), но где радость? что?

Benchmarks — это интересный способ сравнить вашу настройку с установками других людей, и их можно использовать, чтобы помочь вам настроить и поработать с графическим процессором, чтобы убедиться, что он работает с максимальной производительностью.Это немного похоже на измерение характеристик автомобиля на треке, прежде чем возиться с его двигателем, чтобы выжать до последней капли мощности.

Это может показаться устрашающим, но на самом деле это не так. Не верите нам? Отлично. Мы покажем вам, но давайте быстро рассмотрим, что такое тест производительности графического процессора, прежде чем вслепую погрузиться в него.

Как протестировать производительность видеокарты: что такое тест производительности графического процессора?

Тест производительности графического процессора обычно включает в себя немного программного обеспечения, которое бросает серьезные графические вызовы вашему графическому процессору, чтобы увидеть, как он работает в условиях нагрузки.Эти проблемы часто бывают в виде трехмерных сред, и вы можете настроить такие параметры, как разрешение и качество, чтобы повысить или понизить нагрузку.

Абсолютно минимально приемлемая частота кадров для большинства геймеров составляет 60 кадров в секунду, хотя многие энтузиасты принимают не менее 144 кадров в секунду или даже 244 кадра в секунду, чтобы не отставать от своих высококачественных игровых мониторов.

Если ваш графический процессор может выполнить интенсивный тест, не падая ниже 60 кадров в секунду, он должен быть в состоянии справиться с любыми вашими действиями без потери производительности.Это означает, что все ваши игровые процессы будут плавными и стабильными, и вы сможете наслаждаться играми в соответствии с задумками разработчиков.

Очевидно, что чем выше разрешение и графическая детализация, которые вы выберете как в тестах, так и в самих играх, тем больше будет нагрузка на ваш графический процессор. Если вам посчастливилось иметь безумно мощную карту, такую ​​как Nvidia RTX 3080 или 3090, она сможет справиться с большинством задач при настройках Ultra.

Разобравшись с этим, давайте рассмотрим, как протестировать вашу видеокарту.

Тестирование производительности видеокарты

Существует множество различных вариантов тестирования. Одним из самых популярных является тест 3DMark , , , который предлагает множество специализированных тестов для всех устройств, от стандартных тестов графического процессора до тестов для виртуальной реальности и т. Д.

Хотя доступны бесплатные версии, они имеют ограниченные возможности (хотя вы также можете приобрести полные версии). В этом руководстве мы будем использовать Heaven Benchmark , у которого есть бесплатная версия с большое количество настроек, которые по-прежнему позволяют вам все правильно протестировать.

Просто чтобы предупредить вас заранее, что из-за нехватки графического процессора на момент написания этот писатель не смог завершить сборку своего игрового ПК. В результате нижеприведенные скриншоты были сделаны во время теста на ультрабуке Asus с Nvidia MX150, который далеко не такой мощный, как обычный настольный графический процессор.

Это не имеет значения с точки зрения пошаговых инструкций, но мы хотели объяснить наши плохие результаты на случай, если вам интересно.

1. Загрузите Heaven Benchmark на свой компьютер с официального веб-сайта Heaven .Хотя вы можете скачать платную версию, бесплатная версия — отличное место для начала, ее можно загрузить, нажав , нажав зеленую кнопку слева .

После загрузки файла дважды щелкните его и установите. Это так просто.

(Изображение предоставлено Tom’s Guide)

2. После установки Heaven Benchmark вы захотите запустить программу. Самый простой способ сделать это — ввести «Heaven Benchmark» в строке поиска Windows .

Когда имя появится в результатах поиска, дважды щелкните его, чтобы открыть инструмент тестирования.

(Изображение предоставлено: Tom’s Guide)

3. Главный экран Heaven Benchmark позволяет вам настроить несколько параметров до начала фактического тестирования. Новичкам мы рекомендуем оставить все как есть в пользовательских настройках по умолчанию, которые выбирают наилучшие настройки для вашей машины.

Если вы хотите что-то здесь настроить, это более чем приветствуется, хотя если вы сделаете такие вещи, как увеличение разрешения, количества сглаживания и качества графики, ваши цифры, очевидно, сильно пострадают.

Вы также можете изменить эти настройки во время самого теста с помощью кнопки «Настройки» вверху, которая будет отображаться как одна из опций при запуске. Рядом с ним также есть кнопка «Качество», которая позволяет изменять качество графики во время теста.

Примечание: На наших снимках экрана мы запускали тест в оконном режиме с очень простым разрешением 720p, а не выбирали Full Screen в Full HD из-за отсутствия надлежащего графического процессора для настольных ПК. Поскольку почти каждый геймер будет играть в полноэкранном режиме с исходным разрешением своего монитора, мы рекомендуем вам выбрать полноэкранный режим при тестировании себя.

Когда все будет отсортировано, нажмите кнопку «Выполнить» в нижней части окна «Настройки», чтобы начать.

(Изображение предоставлено Tom’s Guide)

4. После запуска теста вы совершите виртуальный тур по средневековой деревне . Насколько хорошо будет выглядеть эта деревня, будет зависеть от настроек, сделанных вами ранее. Очевидно, что работа с максимальным разрешением и ультра качеством будет выглядеть лучше, чем что-либо при более низких настройках.

На протяжении всего теста вы должны следить за счетчиком FPS в правом верхнем углу, а также за температурой.Счетчик FPS довольно понятен — он показывает количество кадров в секунду, которое достигает ваша карта, в режиме реального времени.

Температура — это температура самого графического процессора . Таким образом, тесты являются хорошим способом стресс-тестирования охлаждения вашего ПК. Если у вас температура более 100 градусов по Цельсию, вам нужно будет разобраться с воздушным потоком. В большинстве игр температура даже близко не приближается.

В другом месте в верхней части экрана вы увидите кнопки, которые позволяют настраивать параметры на лету.Чтобы начать собственно тест, нажмите кнопку теста в верхнем левом углу.

(Изображение предоставлено: Tom’s Guide)

5. Во время выполнения теста у вас есть возможность позволить ему автоматически делать свое дело или вручную управлять настройками камеры , чтобы вы могли свободно летать по всему миру, или даже ходить, имитируя игровые действия. Это можно сделать, выбрав кнопку камеры в верхнем левом углу.

Как упоминалось ранее, вы также можете изменить различные другие настройки во время теста, нажав кнопки вверху.К ним относятся качество графики , разрешение и др. . Поэкспериментируйте с этими параметрами, чтобы увидеть, как они влияют на производительность.

(Изображение предоставлено Tom’s Guide)

6. На самом деле вам не нужно ничего делать, чтобы завершить тест, так как тест закончится сам, покажет вам общий балл . Вы можете нажать Сохранить в правом нижнем углу, если хотите сохранить результаты для последующего сравнения.

(Изображение предоставлено: Руководство Тома)

7. При нажатии кнопки «Сохранить» откроется экран, на котором можно сохранить файл результатов в предпочтительном месте . В нашем случае мы сделали классический ленивый ход, сохранив прямо на рабочий стол.

(Изображение предоставлено Tom’s Guide)

8. Сохранив результаты, вы можете просмотреть их в любое время, просто указав файл и дважды щелкнув его. Они сохранены в виде HTML-файла , поэтому вы можете открыть их в любом браузере .

(Изображение предоставлено: Руководство Тома)

9. Если вы хотите увидеть, как ваша видеокарта сравнивается с другими, посетите страницу Unigine Leaderboards, страницу , , на которой есть несколько списков лидеров с тысячами результатов. Вы можете выбрать соответствующую предустановку, чтобы увидеть, как сравниваются ваши баллы.

Предупреждение: это может оказаться довольно деморализующим, поскольку есть много людей, которые относятся к получению самых высоких результатов тестов как к серьезному хобби.

После этого ничего не остается, как развлечься.Или, конечно, продолжайте проводить тесты и постоянно настраивать параметры и компоненты корпуса, постоянно гоняясь за все более высокими цифрами. Выбор остается за вами.

(Изображение предоставлено: Tom’s Guide)

Лучшие на сегодня видеокарты со скидкой

Тестирование видеокарты


В этом руководстве объясняется, как протестировать видеокарту в 3D-тестах и ​​играх.

Графические тесты — хорошая отправная точка

Вы можете протестировать видеокарту по-разному, и ни один тест не даст вам полной картины.Различные видеокарты работают лучше или хуже в определенных играх, другие компоненты могут влиять на результат, а реальная производительность может зависеть от того, какие настройки вы выберете.

Синтетические тесты — хорошая отправная точка для тестов графики, поскольку они могут дать вам общий результат
и представление об относительной производительности вашего графического процессора.

Стоит рассмотреть несколько популярных синтетических тестов, включая Unigine Superposition, Unigine Heaven и Furmark, но самым популярным графическим тестом является 3DMark.Вы получаете самый надежный набор тестов с платной версией, но у него также есть бесплатная версия с ограниченным тестированием, и она доступна через Steam, что делает ее легкодоступной.

  1. Загрузите 3DMark из Steam и дайте ему возможность установить, как любую игру или инструмент.

  2. Запустите 3DMark из вашей библиотеки Steam.

  3. Если у вас современная видеокарта, нажмите оранжевую кнопку Run в тесте Time Spy .Если у вас более старый графический процессор или интегрированная графика, рассмотрите возможность запуска Night Raid или Fire Strike , поскольку это не так утомительно.

Дайте тесту поработать до завершения. Он может показывать демонстрационную сцену, но за ней последуют некоторые тесты графики и процессора. По завершении он выдаст общую оценку, индивидуальную оценку процессора и графики, а также несколько других показателей.

Вы можете использовать комбинированные и графические оценки, чтобы измерить производительность вашей видеокарты.Если вы хотите узнать больше о своем графическом процессоре, рассмотрите возможность проведения дополнительных тестов 3DMark или изменения настроек, чтобы увидеть, как это повлияет на ваш результат.

Тесты игровой графики

Синтетические тесты удобны, но они не обязательно дадут вам полную картину того, насколько мощна ваша видеокарта. Если вы хотите узнать, как ваша видеокарта будет работать в определенных играх, или получить более полное представление о ее реальной производительности, вы можете использовать тесты в игре.

Выполнение таких тестов похоже на синтетические тесты, хотя они, как правило, выводят средние (а иногда и минимальные и максимальные) кадры в секунду, а не оценку. Вам также нужно будет самостоятельно настроить внутриигровые настройки, поэтому заранее знать, на какое разрешение, частоту кадров и детализацию вы хотите настроить таргетинг, — это хорошая идея.

Не во всех играх есть тесты производительности, и все игры, которые запускают их немного по-разному, но основной способ — запустить игру, использовать меню настроек, чтобы настроить все так, как вы хотите, а затем выбрать тест в меню, чтобы запустить его.Запишите FPS после завершения. Затем вы можете повторно запустить игру с другими настройками или с разгоном, чтобы увидеть эффект.

Вот несколько хороших игр для тестирования производительности:

  • Shadow of the Tomb Raider
  • Горизонт: Нулевая заря
  • Assassin’s Creed: Валгалла
  • Грязь 5
  • Total War Saga: Троя
  • Gears тактика
  • Red Dead Redemption 2
  • Мировая война Z
  • Мортал Комбат 11

Есть много других, так что не стесняйтесь исследовать альтернативы, если у вас нет этих игр или вы не хотите играть в них в будущем.

Проведение собственного сравнительного анализа

Последний способ протестировать вашу видеокарту — это ваш собственный тест. Это означает, что вы играете в игру с включенным счетчиком кадров в секунду. Многие игры поставляются со своими собственными счетчиками FPS, но есть также несколько автономных версий, в том числе встроенных в последние версии драйверов Nvidia и AMD.

Это лучший способ протестировать реальные игры, в которые вы хотите играть, так как они уже должны быть у вас для выполнения теста. Тем не менее, они далеки от исчерпывающего характера, и различные разделы игры
сложнее или проще для графического процессора, чем другие, поэтому они не дадут вам полной картины.

Какой лучший тест производительности графического процессора?

Ни один тест производительности видеокарты не расскажет вам все о вашей видеокарте. Вот почему профессиональные обзоры видеокарт, как правило, включают несколько синтетических тестов и тестов в игре.

Многие эксперты говорят, что 3DMark — лучший набор тестов для графических процессоров из-за множества опций, множества тестов и подробных результатов. Вокруг него также царит сильная конкуренция, где люди соревнуются, чтобы узнать, у кого самые мощные компьютеры.

Как проверить производительность видеокарты?

Тесты, такие как 3DMark, сохранят ваши результаты в вашей учетной записи, поэтому, если вы когда-нибудь захотите оглянуться на результаты, которые вы достигли в прошлом с другим оборудованием или с другими конфигурациями и тактовыми частотами, вы можете войти в систему на веб-сайте 3DMark и оглянуться назад. как ты любишь.

Как я могу бесплатно протестировать свой графический процессор?

Есть много отличных бесплатных тестов для графики. Вот самые популярные варианты:

  • 3DMark
  • Unigine
  • Наложение
  • Unigine
  • Небеса
  • Furmark
  • Final Fantasy XIV: Shadowbringers
  • Последняя фантазия XV
  • Star Control Origins
  • Мир танков enCore
  • Обитель зла 6
  • Инстинкт убийцы

FAQ

  • Почему видеокарты так дорого стоят?

    Есть несколько причин, по которым тот GPU, на который вы пристально следили, в последнее время подорожал.Спрос может быть высоким прямо сейчас. Могут возникнуть проблемы с предложением, такие как нехватка кремниевых чипов, которая затронет многие отрасли в 2021 году. Высокий спрос и дефицит также могут привести к тому, что скальперы захватят весь инвентарь, который они могут найти, и взвинчивают цену.

  • Как разогнать видеокарту?

  • Как можно переключаться между видеокартами?

    Если ваш компьютер оснащен двумя графическими процессорами, такими как встроенная видеокарта и более мощная игровая видеокарта, он обычно достаточно умен, чтобы знать, когда использовать один вместо другого.Но иногда вам может потребоваться вручную установить, какой графический процессор использует программа. Обычно это можно сделать через приложение, такое как Nvidia Settings или AMD Radeon Settings.

Спасибо, что сообщили нам!

Расскажите, почему!

Другой Недостаточно подробностей Трудно понять

Почему ваша видеокарта получила низкий балл в тесте Lumion Benchmark? — Люмион

1. Проверьте, соответствует ли ваша видеокарта минимальным требованиям или превышает их.

1.1: Первый шаг — дважды проверить, соответствует ли ваша видеокарта минимальным требованиям:

или превышает их.

2. Убедитесь, что установлены последние обновления

2.1: Следующим шагом является установка последней версии драйвера видеокарты и всех доступных обновлений для Windows :

3. Убедитесь, что на вашем ПК используется правильная видеокарта

Если вы используете портативный компьютер, возможно, у него две видеокарты: быстрая и медленная.

3.1: Следуйте приведенным ниже инструкциям, чтобы убедиться, что Lumion использует быструю видеокарту. Ноутбуки также должны быть подключены к сети вместо использования батареи, чтобы обеспечить наилучшие результаты тестов:

4. Проверьте кабели при использовании двух мониторов

4.1: Если на вашем компьютере есть две видеокарты (например, быстрая и медленная) и он подключен к 2 мониторам, вам необходимо убедиться, что окно Lumion запускается на мониторе, который (физически) подключен к быстрой видеокарте с помощью кабеля.

Он не переключится на быструю видеокарту, если вы запустите Lumion на мониторе, который подключен к медленной видеокарте.

Обратите внимание, что вы не можете просто переместить окно на этот монитор — на нем должно запуститься окно Lumion . В противном случае Lumion будет использовать более медленную видеокарту.

5. Убедитесь, что G-SYNC выключен

5.1: Если на вашем компьютере видеокарта NVIDIA, поддерживающая G-SYNC, щелкните правой кнопкой мыши рабочий стол, выберите «Панель управления NVIDIA», нажмите «Настроить G-SYNC» и убедитесь, что « Включить G-SYNC ‘выключено:

6.Выполнить другие тесты производительности

6.1: Поскольку тест Lumion Benchmark является очень быстрым и поверхностным, мы рекомендуем вам протестировать свой компьютер с помощью более точных утилит для тестирования, чтобы увидеть, работает он хуже или нет.

Вот несколько примеров: PassMark Performance Test и 3DMark Basic Edition (прокрутите страницу вниз для Time Spy). Получив эти результаты тестов, вы можете сравнить их с ПК с аналогичными конфигурациями.

7. Что измеряет тест Benchmark ?

Lumion 8.0 и новее:

Графическая карта Оценка дает приблизительное представление о том, насколько быстро она будет обрабатывать фильмы. Он (в основном) не зависит от активности ЦП в фоновом режиме во время теста Benchmark . Однако, если активность ЦП (процессора) составляет 100% во время выполнения теста Lumion Benchmark , оценка видеокарты может быть на 15% ниже.

Чтобы быть уверенным, что активность ЦП не влияет на ваши оценки, следуйте этим инструкциям:

Lumion 7.5 и старше:

Оценка видеокарты Оценка дает лишь приблизительное представление об ожидаемой производительности в реальном времени, то есть не о том, насколько быстро она будет рендерить фильмы. Если во время теста Benchmark наблюдается высокая активность ЦП в фоновом режиме, это значительно повлияет на оценку видеокарты (и оценку ЦП ).Например, вы пытаетесь запустить тест Benchmark , когда Windows еще не завершила загрузку. Кроме того, антивирусное программное обеспечение может сканировать ваш жесткий диск в фоновом режиме.

Чтобы быть уверенным, что активность ЦП не влияет на ваши оценки, следуйте этим инструкциям:

8. Проверьте настройки панели управления Nvidia

Для пользователей Nvidia:

8.1 Щелкните правой кнопкой мыши на рабочем столе и выберите Панель управления Nvidia.Перейдите в Настройки 3D -> Управление настройками 3D -> вкладка Глобальные настройки .

8,2 Убедитесь, что параметры «Максимальная частота кадров» и «Вертикальная синхронизация» отключены, и повторно запустите тест Benchmark . Если тест показывает те же результаты, сбросьте настройки 3D до значений по умолчанию, нажав «Восстановить».

FF14 Endwalker позволяет протестировать видеокарту перед покупкой

Четвертое дополнение

Final Fantasy XIV выйдет в ноябре, и Square Enix подтвердила, что системные требования останутся такими же, как и у оригинала, за исключением дополнительных 20 ГБ дискового пространства.Однако, если расширение Endwalker — это то, что впервые втягивает вас в игру, теперь есть удобный инструмент для тестирования производительности, который позволяет вам увидеть, как работает ваш игровой компьютер, прежде чем вы откроете свой кошелек.

Он использует различные карты и персонажей из игры, чтобы оценить производительность вашей системы в неигровом тесте, отображая при этом текущую частоту кадров, время загрузки между кат-сценами и выставляя в конце оценку для сравнения с другими ПК. Оценка соответствует восьми уровням советов, начиная от «легко запускать игру на самых высоких настройках» до того, что ваша установка просто не подходит для работы.

Однако последнее было бы очень маловероятным, поскольку минимальный графический процессор, необходимый для запуска игры, эквивалентен Nvidia GeForce GTX 750 или AMD Radeon R7 260X — обеим бюджетным картам 7-летней давности.

Рекомендуемые требования также не слишком обременительны, требуются Nvidia GeForce GTX 970 или аналогичный. Даже наша старая машина на базе i7 6700 и GTX 1070 набрала 10 906 баллов, что было оценено разработчиками как «высокая производительность».

ff14 endwalker системные требования

Минимальные требования рекомендуется
OS Windows 8.1 Windows 10
ЦП Intel Core i5 2,4 ГГц или аналогичный Intel Core i7 3 ГГц или аналогичный
Графический процессор Nvidia GeForce GTX 750 ИЛИ AMD Radeon R7 260X Nvidia GeForce GTX 970 ИЛИ AMD Radeon RX 480
RAM 4 ГБ 8 ГБ
Хранилище 80 ГБ 80 ГБ

Несмотря на то, что большинство игровых ПК более чем способны работать с Final Fantasy XIV Endwalker, этот инструмент от Square Enix — отличная идея, и мы хотели бы видеть его в других лучших компьютерных играх.Нет ничего хуже, чем выполнить системные требования для игры на бумаге, только чтобы обнаружить, что она не работает так хорошо, как вы надеялись, когда вы ее купили.

{«schema»: {«page»: {«content»: {«headline»: «FF14 Endwalker позволяет вам протестировать вашу видеокарту перед покупкой», «type»: «news», «category»: «final- fantasy-xiv-a-realm-reborn «},» user «: {» loginstatus «: false},» game «: {» publisher «:» Square Enix «,» genre «:» MMO «,» title «: «Final Fantasy XIV: A Realm Reborn», «жанры»: [«MMO», «RPG»]}}}}

Тест

для настольной видеокарты Intel DG1 появился

(Источник: Intel)

Появился тест для первой настольной видеокарты Intel за более чем 20 лет.Но результаты оставляют желать лучшего.

Еще в январе Intel без лишнего шума выпустила карту DG1. Сам продукт доступен только как карта расширения для готовых систем. Более того, графический процессор работает только со специальным BIOS материнской платы, поэтому вы не можете заменить его на другой настольный компьютер.

Тем не менее, кто-то недавно протестировал DG1 от Asus с помощью инструмента тестирования GPU от Basemark. Полученный результат показывает, что видеокарта Intel работает чуть ниже Radeon HD 7850 2012 года, согласно VideoCardz.

Тест специально измерял производительность DG1 по графическому API Vulkan, который используется в играх и 3D-приложениях. Пользователь Twitter, который впервые обнаружил этот тест, также отметил, что DG1 вполне сопоставим с более поздней RX 550, видеокартой начального уровня за 79 долларов, выпущенной AMD еще в 2017 году.

Твитнуть

Мы подозреваем, что Intel незаметно выпустила DG1, потому что здесь нечем похвастаться. Сама карта использует только 4 ГБ старой памяти LDDR4. Intel также продает графические процессоры не геймерам, а обычным пользователям, а также малому и среднему бизнесу.В то же время только два производителя решили создать графические процессоры DG1, ограничив их доступность.

Настоящим испытанием для Intel станет графическая карта DG2, выпуск которой запланирован на конец этого года и ориентирован на геймеров на ПК. Intel заявила, что графическую карту будет производить сторонний литейный завод, возможно, TSMC. Компания уже начала дразнить возможную презентацию графического процессора с охотой за мусором. Так что есть большая вероятность, что Intel вскоре объявит более подробную информацию.

Получите наши лучшие истории!

Подпишитесь на Что нового сейчас , чтобы каждое утро получать наши главные новости на ваш почтовый ящик.

Этот информационный бюллетень может содержать рекламу, предложения или партнерские ссылки. Подписка на информационный бюллетень означает ваше согласие с нашими Условиями использования и Политикой конфиденциальности.

Ваш комментарий будет первым

    Добавить комментарий

    Ваш адрес email не будет опубликован. Обязательные поля помечены *