Нажмите "Enter", чтобы перейти к содержанию

Сравнение графических процессоров nvidia: Графические процессоры NVIDIA для виртуализации

Содержание

CPU и GPU: в чем разница?

Строение любого сервера во многом похоже на системный компьютерный блок. Внутри корпуса помещена материнская плата, на которой установлены комплектующие. Основную функцию выполняет CPU — центральный процессор, который отвечает за обработку всех данных. Но в последнее время востребованы сервера с GPU — графическим процессором, который способен не только одновременно работать с большим массивом данных, но и обрабатывать графические материалы. И здесь назревает вопрос: а с каким процессором нужно выбрать сервер для тех или иных задач? Для ответа нужно разобрать в чем их разница.

Для начала нужно отметить, что компьютерные процессоры (ЦП и видеокарта) отличаются от серверных архитектурой. Так как к CPU, установленных на серверах, выдвигают особые требования в надежности, безотказности и наличии самокорректирующейся системы. Небольшое изменение в архитектуре, заточенное под работу 24/7 и высокую нагрузку, является единственным отличием серверного процессора от компьютерного.

Именно поэтому в технических характеристиках серверов чаще можно встретить не какой-нибудь CPU Intel Core i7, а, например, Intel Xeon E5620 (4 Core, 12M Cache, 2.40 GHz).

Графические процессоры в серверах тоже имеют несколько иную архитектуру, заточенную под задачи обработки больших массивов данных в режиме non stop. Видеокарты в системных блоках и в серверах внешне могут быть похожи, но они отличаются технически. У Nvidia для серверного оборудования есть специальные линейки GPU с названием TESLA и QUADRO. Видеокарты из серии QUADRO имеют архитектуру, ориентированную под машинное обучение и видеоаналитику, без ограничений по числу входных видеопотоков (у игровой серии Geforce максимум 3 потока). А GPU в линейке TESLA поддерживает виртуализацию, что позволяет выполнять еще более сложные задачи. А у AMD есть особое решение для серверов под названием FirePro или Radeon & Vega.

Для работы приложений с математическим модулем видеокарты на серверах используются две технологии — CUDA и OpenCL.  


Зачем в серверах используют GPU 

А теперь перейдем к непосредственной разнице возможностей CPU и GPU в серверах. Еще несколько лет назад в СХД использовались только CPU, которые отвечали за обработку всех данных, включая графику и видео. Любой центральный процессор способен обрабатывать графические материалы, но только когда речь идет о простых задачах. Например, вывести изображение на экран или предоставить к графике удаленный доступ. По такому принципу работали первые компьютеры, на которых можно было играть в 2D-игры, но в них не было дискретных видеокарт.

Сейчас же стала востребованной обработка графической информации, что невозможно именно без GPU — графического процессора. Только благодаря видеокарте в сервере можно работать со сложными массивами данных, касающихся графики. Например, удаленно работать с программами по обработке фото (тот же Photoshop), предоставить облачный доступ к геймингу, управлять видео с системы видеонаблюдения (например, использовать систему распознавания лиц или автомобильных номеров).

Помимо этого, серверы с GPU позволяют использовать их для 3D-моделирования и программирования при помощи CUDA. А еще их наличие в целом увеличивает вычислительную мощность за счет особенностей архитектуры.


Разница в CPU и GPU в серверном оборудовании

С технической стороны разница между CPU и GPU заключается в принципах потоковой обработки информации. Ядра CPU выполняют задачи последовательно.

Если появляются приоритетные задачи высокой важности, то они обрабатываются тоже в порядке общей очереди. Если на каком-то этапе происходит сбой, то возникает ошибка и весь процесс сбивается. За счет нескольких ядер достигается многозадачность, но по-прежнему все данные обрабатываются в едином потоке на каждом ядре отдельно.

Архитектура GPU построена несколько иначе. Там все задачи выполняются параллельно. За счет этого достигается высокая многозадачность и устойчивость. Именно поэтому для майнинга криптовалюты при очень больших объемах обрабатываемых данных используются GPU, а не CPU. Видеокарты поэтому и называют еще графическим ускорителем.

А еще разница заключается в доступе к памяти каждого из видов процессоров. GPU попросту не нужно много кэша, чтобы обрабатывать массивы данных. Даже при работе с графикой достаточно пары сотен килобайт кэша. В современных графических процессорах используется 2048 и более исполнительных блоков, а у центральных процессоров — от 2 до 48. 


Заключение

Исходя из особенностей GPU, их стали использовать на многих серверах, которые задействуются в обработке больших массивов данных и работе с графикой/видео. Многие компании выбирают именно такие сервера с GPU при работе с Big Data и Artificial Intelligence, 3D-моделированием и криптографией. Но даже современные системы видеонаблюдения с системой анализа и корпоративные облачные сети трудно представить без серверов с GPU. 

Осталось только определить, для каких целей вам нужен сервер, и действительно ли нельзя обойтись только CPU? В этом вам помогут специалисты ittelo, которые не только подберут оптимальную конфигурацию, но и проведут развернутую консультацию по выбору серверного оборудования под конкретные цели.

Как и зачем производить дедупликацию данных на предприятии

29 Ноября 2019

Читать

О жидкостном охлаждении

16 Октября 2018

Читать

Несколько причин пересмотреть свой план на случай ЧС в серверной

16 Декабря 2018

Читать

Процессор Intel® Pentium® G630 (3 МБ кэш-памяти, тактовая частота 2,70 ГГц) Спецификации продукции

Дата выпуска

Дата выпуска продукта.

Ожидается задержка

Ожидается снятие с производства — это оценка времени, когда для продукции начнется процесс снятия с производства. Уведомление о снятии продукции с производства (PDN), опубликованное в начале процесса, будет включать в себя все сведения об основных этапах снятия с производства. Некоторые подразделения могут сообщать сведения о сроках снятия с производства до публикации PDN. Обратитесь к представителю Intel для получения информации о сроках снятия с производства и вариантах продления сроков.

Литография

Литография указывает на полупроводниковую технологию, используемую для производства интегрированных наборов микросхем и отчет показывается в нанометре (нм), что указывает на размер функций, встроенных в полупроводник.

Количество ядер

Количество ядер — это термин аппаратного обеспечения, описывающий число независимых центральных модулей обработки в одном вычислительном компоненте (кристалл).

Количество потоков

Поток или поток выполнения — это термин программного обеспечения, обозначающий базовую упорядоченную последовательность инструкций, которые могут быть переданы или обработаны одним ядром ЦП.

Базовая тактовая частота процессора

Базовая частота процессора — это скорость открытия/закрытия транзисторов процессора. Базовая частота процессора является рабочей точкой, где задается расчетная мощность (TDP). Частота измеряется в гигагерцах (ГГц) или миллиардах вычислительных циклов в секунду.

Кэш-память

Кэш-память процессора — это область быстродействующей памяти, расположенная в процессоре. Интеллектуальная кэш-память Intel® Smart Cache указывает на архитектуру, которая позволяет всем ядрам совместно динамически использовать доступ к кэшу последнего уровня.

Частота системной шины

Шина — это подсистема, передающая данные между компонентами компьютера или между компьютерами. В качестве примера можно назвать системную шину (FSB), по которой происходит обмен данными между процессором и блоком контроллеров памяти; интерфейс DMI, который представляет собой соединение «точка-точка» между встроенным контроллером памяти Intel и блоком контроллеров ввода/вывода Intel на системной плате; и интерфейс Quick Path Interconnect (QPI), соединяющий процессор и интегрированный контроллер памяти.

Расчетная мощность

Расчетная тепловая мощность (TDP) указывает на среднее значение производительности в ваттах, когда мощность процессора рассеивается (при работе с базовой частотой, когда все ядра задействованы) в условиях сложной нагрузки, определенной Intel. Ознакомьтесь с требованиями к системам терморегуляции, представленными в техническом описании.

Доступные варианты для встраиваемых систем

Доступные варианты для встраиваемых систем указывают на продукты, обеспечивающие продленную возможность приобретения для интеллектуальных систем и встроенных решений. Спецификация продукции и условия использования представлены в отчете Production Release Qualification (PRQ). Обратитесь к представителю Intel для получения подробной информации.

Поиск продукции с Доступные варианты для встраиваемых систем

Макс. объем памяти (зависит от типа памяти)

Макс. объем памяти означает максимальный объем памяти, поддерживаемый процессором.

Типы памяти

Процессоры Intel® поддерживают четыре разных типа памяти: одноканальная, двухканальная, трехканальная и Flex.

Макс.

число каналов памяти

От количества каналов памяти зависит пропускная способность приложений.

Макс. пропускная способность памяти

Макс. пропускная способность памяти означает максимальную скорость, с которой данные могут быть считаны из памяти или сохранены в памяти процессором (в ГБ/с).

Встроенная в процессор графическая система

Графическая система процессора представляет собой интегрированную в процессор схему обработки графических данных, которая формирует работу функций видеосистемы, вычислительных процессов, мультимедиа и отображения информации. Системы HD-графики Intel®, Iris™ Graphics, Iris Plus Graphics и Iris Pro Graphics обеспечивают расширенное преобразование медиа-данных, высокие частоты кадров и возможность демонстрации видео в формате 4K Ultra HD (UHD). Для получения дополнительной информации см. страницу Технология Intel® Graphics.

Базовая частота графической системы

Базовая частота графической системы — это номинальная/гарантированная тактовая частота рендеринга графики (МГц).

Макс. динамическая частота графической системы

Макс. динамическая частота графической системы — это максимальная условная частота рендеринга (МГц), поддерживаемая HD-графикой Intel® с функцией Dynamic Frequency.

Intel® Quick Sync Video

Технология Intel® Quick Sync Video обеспечивает быструю конвертацию видео для портативных медиапроигрывателей, размещения в сети, а также редактирования и создания видео.

Поиск продукции с Intel® Quick Sync Video

Технология InTru 3D

Технология Intel InTru 3D позволяет воспроизводить трехмерные стереоскопические видеоматериалы в формате Blu-ray* с разрешением 1080p, используя интерфейс HDMI* 1.4 и высококачественный звук.

Интерфейс Intel® Flexible Display (Intel® FDI)

Intel® Flexible Display — это инновационный интерфейс, позволяющий выводить независимые изображения на два канала с помощью интегрированной графической системы.

Технология Intel® Clear Video HD

Технология Intel® Clear Video HD, как и предшествующая ее появлению технология Intel® Clear Video, представляет собой набор технологий кодирования и обработки видео, встроенный в интегрированную графическую систему процессора. Эти технологии делают воспроизведение видео более стабильным, а графику — более четкой, яркой и реалистичной. Технология Intel® Clear Video HD обеспечивает более яркие цвета и более реалистичное отображение кожи благодаря улучшениям качества видео.

Редакция PCI Express

Редакция PCI Express — это версия, поддерживаемая процессором. PCIe (Peripheral Component Interconnect Express) представляет собой стандарт высокоскоростной последовательной шины расширения для компьютеров для подключения к нему аппаратных устройств. Различные версии PCI Express поддерживают различные скорости передачи данных.

Поддерживаемые разъемы

Разъемом называется компонент, которые обеспечивает механические и электрические соединения между процессором и материнской платой.

T

CASE

Критическая температура — это максимальная температура, допустимая в интегрированном теплораспределителе (IHS) процессора.

Поддержка памяти Intel® Optane™

Память Intel® Optane™ представляет собой новый революционный класс энергонезависимой памяти, работающей между системной памятью и устройствами хранения данных для повышения системной производительности и оперативности. В сочетании с драйвером технологии хранения Intel® Rapid она эффективно управляет несколькими уровнями систем хранения данных, предоставляя один виртуальный диск для нужд ОС, обеспечивая тем самым хранение наиболее часто используемой информации на самом быстродействующем уровне хранения данных. Для работы памяти Intel® Optane™ необходимы специальная аппаратная и программная конфигурации. Чтобы узнать о требованиях к конфигурации, посетите сайт https://www.intel.com/content/www/ru/ru/architecture-and-technology/optane-memory.html.

Технология Intel® Turbo Boost

Технология Intel® Turbo Boost динамически увеличивает частоту процессора до необходимого уровня, используя разницу между номинальным и максимальным значениями параметров температуры и энергопотребления, что позволяет увеличить эффективность энергопотребления или при необходимости «разогнать» процессор.

Технология Intel® Hyper-Threading

Intel® Hyper-Threading Technology (Intel® HT Technology) обеспечивает два потока обработки для каждого физического ядра. Многопоточные приложения могут выполнять больше задач параллельно, что значительно ускоряет выполнение работы.

Поиск продукции с Технология Intel® Hyper-Threading

Технология виртуализации Intel® (VT-x)

Технология Intel® Virtualization для направленного ввода/вывода (VT-x) позволяет одной аппаратной платформе функционировать в качестве нескольких «виртуальных» платформ. Технология улучшает возможности управления, снижая время простоев и поддерживая продуктивность работы за счет выделения отдельных разделов для вычислительных операций.

Поиск продукции с Технология виртуализации Intel® (VT-x)

Технология виртуализации Intel® для направленного ввода/вывода (VT-d)

Технология Intel® Virtualization Technology для направленного ввода/вывода дополняет поддержку виртуализации в процессорах на базе архитектуры IA-32 (VT-x) и в процессорах Itanium® (VT-i) функциями виртуализации устройств ввода/вывода. Технология Intel® Virtualization для направленного ввода/вывода помогает пользователям увеличить безопасность и надежность систем, а также повысить производительность устройств ввода/вывода в виртуальных средах.

Поиск продукции с Технология виртуализации Intel® для направленного ввода/вывода (VT-d)

Intel® VT-x с таблицами Extended Page Tables (EPT)

Intel® VT-x с технологией Extended Page Tables, известной также как технология Second Level Address Translation (SLAT), обеспечивает ускорение работы виртуализованных приложений с интенсивным использованием памяти. Технология Extended Page Tables на платформах с поддержкой технологии виртуализации Intel® сокращает непроизводительные затраты памяти и энергопотребления и увеличивает время автономной работы благодаря аппаратной оптимизации управления таблицей переадресации страниц.

Архитектура Intel® 64

Архитектура Intel® 64 в сочетании с соответствующим программным обеспечением поддерживает работу 64-разрядных приложений на серверах, рабочих станциях, настольных ПК и ноутбуках.¹ Архитектура Intel® 64 обеспечивает повышение производительности, за счет чего вычислительные системы могут использовать более 4 ГБ виртуальной и физической памяти.

Поиск продукции с Архитектура Intel® 64

Набор команд

Набор команд содержит базовые команды и инструкции, которые микропроцессор понимает и может выполнять. Показанное значение указывает, с каким набором команд Intel совместим данный процессор.

Расширения набора команд

Расширения набора команд — это дополнительные инструкции, с помощью которых можно повысить производительность при выполнении операций с несколькими объектами данных. К ним относятся SSE (Поддержка расширений SIMD) и AVX (Векторные расширения).

Состояния простоя

Режим состояния простоя (или C-состояния) используется для энергосбережения, когда процессор бездействует. C0 означает рабочее состояние, то есть ЦПУ в данный момент выполняет полезную работу. C1 — это первое состояние бездействия, С2 — второе состояние бездействия и т.д. Чем выше численный показатель С-состояния, тем больше действий по энергосбережению выполняет программа.

Enhanced Intel SpeedStep® Technology (Усовершенствованная технология Intel SpeedStep®)

Усовершенствованная технология Intel SpeedStep® позволяет обеспечить высокую производительность, а также соответствие требованиям мобильных систем к энергосбережению. Стандартная технология Intel SpeedStep® позволяет переключать уровень напряжения и частоты в зависимости от нагрузки на процессор. Усовершенствованная технология Intel SpeedStep® построена на той же архитектуре и использует такие стратегии разработки, как разделение изменений напряжения и частоты, а также распределение и восстановление тактового сигнала.

Технологии термоконтроля

Технологии термоконтроля защищают корпус процессора и систему от сбоя в результате перегрева с помощью нескольких функций управления температурным режимом. Внутрикристаллический цифровой термодатчик температуры (Digital Thermal Sensor — DTS) определяет температуру ядра, а функции управления температурным режимом при необходимости снижают энергопотребление корпусом процессора, тем самым уменьшая температуру, для обеспечения работы в пределах нормальных эксплуатационных характеристик.

Технология Intel® Fast Memory Access

Технология Intel® Fast Memory Access представляет собой усовершенствованную магистральную архитектуру блока контроллеров видеопамяти (GMCH), повышающую производительность системы благодаря оптимизации использования доступной пропускной способности и сокращению времени задержки при доступе к памяти.

Технология Intel® Flex Memory Access

Intel® Flex Memory Access обеспечивает простоту модернизации благодаря поддержке модулей памяти различного объёма, работающих в двухканальном режиме.

Новые команды Intel® AES

Команды Intel® AES-NI (Intel® AES New Instructions) представляют собой набор команд, позволяющий быстро и безопасно обеспечить шифрование и расшифровку данных. Команды AES-NI могут применяться для решения широкого спектра криптографических задач, например, в приложениях, обеспечивающих групповое шифрование, расшифровку, аутентификацию, генерацию случайных чисел и аутентифицированное шифрование.

Поиск продукции с Новые команды Intel® AES

Технология Intel® Trusted Execution

Технология Intel® Trusted Execution расширяет возможности безопасного исполнения команд посредством аппаратного расширения возможностей процессоров и наборов микросхем Intel®. Эта технология обеспечивает для платформ цифрового офиса такие функции защиты, как измеряемый запуск приложений и защищенное выполнение команд. Это достигается за счет создания среды, где приложения выполняются изолированно от других приложений системы.

Поиск продукции с Технология Intel® Trusted Execution

Функция Бит отмены выполнения

Бит отмены выполнения — это аппаратная функция безопасности, которая позволяет уменьшить уязвимость к вирусам и вредоносному коду, а также предотвратить выполнение вредоносного ПО и его распространение на сервере или в сети.

Слияние NVIDIA и ARM изменит расстановку сил на мировом рынке процессоров

РынокТренды

Наталья Соловьева | 20.09.2020

Компания-разработчик графических процессоров NVIDIA заключила с японской холдинговой компанией SoftBank соглашение о приобретении компании ARM. Эксперты назвали данное приобретение вестником грядущего перераспределения рынка – сделка позволит нишевому поставщику графических процессоров взять под контроль самую распространенную в мире электронную технологию, поставки которой намного превышают совокупный объем процессоров, поставляемых лидерами рынка AMD и Intel.

Компания-разработчик графических процессоров NVIDIA заключила с японской холдинговой компанией SoftBank соглашение о приобретении одного из ведущих в мире поставщиков полупроводниковых компонентов разработчика чипов для мобильных устройств компанию ARM. Эксперты назвали данное приобретение самым смелым шагом в истории NVIDIA и грядущим перераспределением рынка – сделка, которой предстоит еще получить окончательное одобрение регулирующих органов ряда стран, позволит нишевому поставщику графических процессоров взять под контроль самую распространенную в мире электронную технологию, поставки которой намного превышают совокупный объем процессоров, поставляемых лидерами рынка AMD и Intel.

Сумма, которую SoftBank получит от NVIDIA за компанию ARM, составит $40 млрд. Из них $21,5 млрд будут представлены акциями, $12 млрд — денежными средствами. Еще порядка $5 млрд в виде акций NVIDIA либо деньгами SoftBank получит в том случае, если прибыль ARM достигнет определенных показателей, и $1,5 млрд в виде акций NVIDIA получат от сотрудники самой компании ARM. В результате сделки холдингу SoftBank и его инвестиционному фонду Vision Fund будет принадлежать 6,7-8,1% акций NVIDIA.

ARM: 180 млрд чипов и уникальная бизнес-модель

Архитектура ARM повсеместно распространена во всем мире. Чипы и компоненты ARM присутствуют практически в каждом электронном устройстве всех основных категорий коммуникационного и сетевого оборудования, от заводского оборудования до домашней электроники, от смартфонов до большинства умных часов, в телевизионных приставках и большинстве устройств Интернета вещей (IoT). Исключение составляют персональные компьютеры и облачные/data-центры. К настоящему моменту на рынок было поставлено более 180 млрд чипов, использующих технологии компании ARM.

Бизнес-модель ARM связана с проектированием микросхем и выпуском лицензий на интеллектуальную собственность для сети партнеров. Партнеры компании, в числе которых — ведущие поставщики полупроводниковых компонентов, используют интеллектуальную собственность ARM для создания и производства систем на основе конструкции микрочипов. ARM получает лицензионный сбор за оригинальную ИС и роялти за каждый чип или произведенную кристаллическую пластину.

Планы на будущее

ARM будет преобразована в подразделение NVIDIA, и самой главной задачей, которую предстоит решить после окончательного утверждения покупки, станет интеграция технологий NVIDIA в обширную сеть ARM. Такое заявление в своем интервью журналу Forbes заявил главный исполнительный директор NVIDIA Дженсен Хуанг (Jensen Huang). При этом головной офис ARM, расположенный в Великобритании, ее бизнес-модель, связанная с проектированием и открытым лицензированием микросхем, как и сложившиеся отношения с обширнейшей сетью партнеров и клиентов по всему миру, будут сохранены.

«Мы объединим ведущие вычисления NVIDIA в сфере искусственного интеллекта с обширной экосистемой ARM, которая не похожа ни на одну компанию в истории технологий, — комментирует Дженсен Хуанг. — Приобретение ARM подпитывается стремлением привнести ИИ во все, что имеет выключатель. Преуспев в продаже графических чипов NVIDIA владельцам центров обработки данных для ускорения распознавания изображений и обработки языка, мы хотим убедиться, что технология ARM поможет распространить это на все, от автомобилей-беспилотников до интеллектуальных счетчиков».

Кроме того, после покупки ARM компания NVIDIA может заняться созданием собственной серверной платформы на архитектуре ARM. В приоритете, по заявлению Дженсена Хуанга- инвестиции в усилия ARM по разработке чипов для вычислений в центрах обработки данных (ЦОДах), что позволит отвоевать у Intel, доминирующей в данном сегменте с долей около 90%, часть прибыльного рынка. Сегодня руководство компании рассматривает три возможных варианта: лицензирование CPU под собственной маркой, выпуск референсных продуктов и разработку кастомных решений на базе готовых ядер.

«Мы знаем, что центры хранения и обработки данных, а также облака остро нуждаются в микропроцессорах ARM. Энергоэффективность напрямую влияет на вычислительные мощности, объемы вычислений и стоимость предоставления этих услуг», — продолжил он.

Напряженность между КНР и США и недовольство конкурентов

Окончательное завершение сделки ожидается до конца марта 2022 г. — регулирующим органам Великобритании, Китая, Евросоюза и США предстоит провести проверку на предмет нарушения антимонопольного законодательства. Получение одобрения от регуляторов КНР может стать особенно трудным, учитывая растущую напряженность в отношениях с США.

«ARM станет американской фирмой, и конфликт вокруг полупроводников между США и Китаем станет ожесточенным, поскольку Китай все еще контролирует ARM China», — считает Кодзи Хираи (Kazuo Hirai), глава консалтинговой фирмы M&A Kachitas в Токио.

Cделка неизбежно вызовет недовольство со стороны конкурентов NVIDIA – компаний Samsung, Apple, Qualcomm, Broadcom, Intel и Huawei, использующих архитектуру ARM в своих продуктах, полагают аналитики — от них посыпятся претензии.

Сделка по слиянию NVIDIA и ARM подверглась жесткой критике со стороны Херманна Хаузера (Hermann Hauser), одного из основателей ARM. В своем интервью агентству Reuters он называет ее катастрофой для Кембриджа, Британии и Европы.

«Это последняя европейская технологическая компания, имеющая мировое значение, и ее продают американцам», — цитируют слова Хаузера СМИ.

Продажа ARM в одночасье разрушит ее уникальную бизнес-модель, также, как это уже было со швейцарской полупроводниковой отраслью, считает он, и призывает Правительство Великобритании выдвинуть к проводимой сделке ряд дополнительных требований. В их числе — гарантия сохранности рабочих мест в Британии и открытой бизнес-модели ARM, а также исключение отношений с клиентами из проверок безопасности в США.

Самый смелый шаг за всю историю NVIDIA

Softbank купил ARM в 2016 г., вложив в сделку $31,4 млрд – она также стала крупнейшей сделкой в полупроводниковой отрасли. Холдинг намеревался развивать технологии Интернета вещей (IoT), и к 2035 г., по его планам, собирался довести число интеллектуальных устройств, подключенных к Интернету, до 1 трлн. Однако нереалистичный оптимизм в отношении развитии технологии IoT, как и ряд просчетов в инвестиционной стратегии, говорят эксперты, вынудила Softbank продать компанию ARM.

NVIDIA была самым заинтересованным в таком приобретении рыночным игроком. Компания только недавно завершила сделку по покупке израильского производителя чипов Mellanox Technologies, вложив в нее $6,9 млрд. Очередное приобретение — поглощение компании ARM – эксперты уже окрестили самым смелым шагом в истории NVIDIA.

На новостях о сделке акции SoftBank выросли примерно на 9%, акции NVIDIA — на 5%.

Nvidia Процессоры Слияния и поглощения

Журнал: Журнал IT-News, Журнал IT-Expert [№ 09/2020], Подписка на журналы

AMD и NVIDIA решают проблему нехватки графических процессоров

Введение

Мы стремимся уважать информацию личного характера, касающуюся посетителей нашего сайта. В настоящей Политике конфиденциальности разъясняются некоторые из мер, которые мы предпринимаем для защиты Вашей частной жизни.

Конфиденциальность информации личного характера

«Информация личного характера» обозначает любую информацию, которая может быть использована для идентификации личности, например, фамилия или адрес электронной почты.

Использование информации частного характера.

Информация личного характера, полученная через наш сайт, используется нами, среди прочего, для целей регистрирования пользователей, для поддержки работы и совершенствования нашего сайта, отслеживания политики и статистики пользования сайтом, а также в целях, разрешенных вами.

Раскрытие информации частного характера.

Мы нанимаем другие компании или связаны с компаниями, которые по нашему поручению предоставляют услуги, такие как обработка и доставка информации, размещение информации на данном сайте, доставка содержания и услуг, предоставляемых настоящим сайтом, выполнение статистического анализа. Чтобы эти компании могли предоставлять эти услуги, мы можем сообщать им информацию личного характера, однако им будет разрешено получать только ту информацию личного характера, которая необходима им для предоставления услуг. Они обязаны соблюдать конфиденциальность этой информации, и им запрещено использовать ее в иных целях.

Мы можем использовать или раскрывать Ваши личные данные и по иным причинам, в том числе, если мы считаем, что это необходимо в целях выполнения требований закона или решений суда, для защиты наших прав или собственности, защиты личной безопасности пользователей нашего сайта или представителей широкой общественности, в целях расследования или принятия мер в отношении незаконной или предполагаемой незаконной деятельности, в связи с корпоративными сделками, такими как разукрупнение, слияние, консолидация, продажа активов или в маловероятном случае банкротства, или в иных целях в соответствии с Вашим согласием.

Мы не будем продавать, предоставлять на правах аренды или лизинга наши списки пользователей с адресами электронной почты третьим сторонам.

Доступ к информации личного характера.

Если после предоставления информации на данный сайт, Вы решите, что Вы не хотите, чтобы Ваша персональная информация использовалась в каких-либо целях, связавшись с нами по следующему адресу: [email protected] ru.ru.

Наша практика в отношении информации неличного характера.

Мы можем собирать информацию неличного характера о Вашем посещении сайта, в том числе просматриваемые вами страницы, выбираемые вами ссылки, а также другие действия в связи с Вашим использованием нашего сайта. Кроме того, мы можем собирать определенную стандартную информацию, которую Ваш браузер направляет на любой посещаемый вами сайт, такую как Ваш IP-адрес, тип браузера и язык, время, проведенное на сайте, и адрес соответствующего веб-сайта.

Использование закладок (cookies).

Файл cookie — это небольшой текстовый файл, размещаемый на Вашем твердом диске нашим сервером. Cookies содержат информацию, которая позже может быть нами прочитана. Никакие данные, собранные нами таким путем, не могут быть использованы для идентификации посетителя сайта. Не могут cookies использоваться и для запуска программ или для заражения Вашего компьютера вирусами. Мы используем cookies в целях контроля использования нашего сайта, сбора информации неличного характера о наших пользователях, сохранения Ваших предпочтений и другой информации на Вашем компьютере с тем, чтобы сэкономить Ваше время за счет снятия необходимости многократно вводить одну и ту же информацию, а также в целях отображения Вашего персонализированного содержания в ходе Ваших последующих посещений нашего сайта. Эта информация также используется для статистических исследований, направленных на корректировку содержания в соответствии с предпочтениями пользователей.

Агрегированная информация.

Мы можем объединять в неидентифицируемом формате предоставляемую вами личную информацию и личную информацию, предоставляемую другими пользователями, создавая таким образом агрегированные данные. Мы планируем анализировать данные агрегированного характера в основном в целях отслеживания групповых тенденций. Мы не увязываем агрегированные данные о пользователях с информацией личного характера, поэтому агрегированные данные не могут использоваться для установления связи с вами или Вашей идентификации. Вместо фактических имен в процессе создания агрегированных данных и анализа мы будем использовать имена пользователей. В статистических целях и в целях отслеживания групповых тенденций анонимные агрегированные данные могут предоставляться другим компаниям, с которыми мы взаимодействуем.

Изменения, вносимые в настоящее Заявление о конфиденциальности.

Мы сохраняeм за собой право время от времени вносить изменения или дополнения в настоящую Политику конфиденциальности — частично или полностью. Мы призываем Вас периодически перечитывать нашу Политику конфиденциальности с тем, чтобы быть информированными относительно того, как мы защищаем Вашу личную информацию. С последним вариантом Политики конфиденциальности можно ознакомиться путем нажатия на гипертекстовую ссылку «Политика конфиденциальности», находящуюся в нижней части домашней страницы данного сайта. Во многих случаях, при внесении изменений в Политику конфиденциальности, мы также изменяем и дату, проставленную в начале текста Политики конфиденциальности, однако других уведомлений об изменениях мы можем вам не направлять. Однако, если речь идет о существенных изменениях, мы уведомим Вас, либо разместив предварительное заметное объявление о таких изменениях, либо непосредственно направив вам уведомление по электронной почте. Продолжение использования вами данного сайта и выход на него означает Ваше согласие с такими изменениями.

Связь с нами. Если у Вас возникли какие-либо вопросы или предложения по поводу нашего положения о конфиденциальности, пожалуйста, свяжитесь с нами по следующему адресу: [email protected]

Закрыть

Обзор Gigabyte GeForce GTX 1660

Что такое Gigabyte GTX 1660?

Gigabyte GTX 1660 – это новая видеокарта Nvidia среднего класса. В то время как высокопроизводительные графические процессоры теперь преодолели цену в 1000 фунтов стерлингов, GTX 1660 предлагает впечатляющую производительность Full HD всего за 199 фунтов.

Как и его чуть более мощный брат GTX 1660 Ti, GTX 1660 использует новую архитектуру Nvidia TU116 вместо старого дизайна Pascal, используемого для карт GTX 1050 и GTX 1060.

Nvidia разработала эту архитектуру для достижения расчетного баланса между производительностью, мощностью и стоимостью. Примите участие в захватывающих инновациях шейдеров Turing, которые интеллектуально оптимизируют производительность графического процессора, добавьте обещание поддержки трассировки лучей в будущем, и вы получите отличную производительность графики за очень хорошую цену.

У GTX 1660 есть очень важная проблема – более мощный 1660 Ti бросает в центр внимания. С разницей в два с лишним £ 70 цена GTX 1660 находится под большим давлением, чтобы обеспечить сопоставимую производительность, чтобы считаться достойной альтернативой.

Похожие: Лучшие видеокарты 2019

Gigabyte GTX 1660 – Технические характеристики и технологии

В следующей таблице приведены все характеристики GTX 1660 и их сравнение с видеокартами Nvidia GTX 1050 Ti, GTX 1060 6 ГБ, GTX 1660 Ti, GTX 1070 и RTX 2060. Я выбрал эти карты, потому что они являются наиболее сопоставимыми графическими процессорами Nvidia с точки зрения как цены, так и технических характеристик.

GTX 1660 GTX 1050 Ti GTX 1060 6GB GTX 1660 Ti RTX 2060
Архитектура TU116 паскаль паскаль TU116 Тьюринг
CUDA Cores 1408 768 1280 1536 1920
Базовая тактовая частота 1530 МГц 1290 МГц 1506 МГц 1500 МГц 1365 МГц
Увеличенная тактовая частота 1785 МГц 1392 МГц 1708 МГц 1770 МГц 1680 МГц
VRAM 6 ГБ GDDR5 4 ГБ GDDR5 6 ГБ GDDR5 6 ГБ GDDR6 6 ГБ GDDR6
Пропускная способность памяти 192 Гбит / с 112 Гбит / с 192 Гбит / с 288 Гбит / с 336 Гбит / с
TDP 120w 75w 120w 120w 160w

Хотя GTX 1660 является картой Тьюринга, как и RTX 2060, в ней отсутствуют специальные функции последней, такие как трассировка лучей и DLSS. Это не удивительно, учитывая бюджетную цену здесь. Так чем же отличается новая архитектура TU116 от Pascal?

Во-первых, архитектура TU116 может похвастаться возможностью большей емкости, более настраиваемых кэшей и улучшенной пропускной способности. Но в отличие от GTX 1660, Nvidia не в полной мере использовала потенциал архитектуры здесь, поддерживая большинство характеристик в соответствии с Pascal GTX 1060, чтобы снизить затраты. GTX 1660 и GTX 1060 имеют одинаковую пропускную способность памяти, VRAM и даже тепловую мощность.

Nvidia нашла место для удара в ядрах CUDA, хотя GTX 1660 выставил напоказ в общей сложности 1408 по сравнению с GTX 1060’s 1280. Это увеличение ядер CUDA, по-видимому, также является основным фактором для увеличения тактовых частот с повышением. GTX 1660 достигает пика на разумных 1785 МГц. Для сравнения, GTX 1060 способен только на 1708 МГц.

Давайте будем честными, на бумаге GTX 1660 не кажется значительным обновлением GTX 1060. Правда, однако, большинство преимуществ новой архитектуры TU116 не видны в спецификации. Одним из примеров этого является увеличение в 1,5 раза инструкций за такт. Это означает, что, хотя увеличение тактовой частоты не является массовым, повышение эффективности все же должно привести к значительно более высокой производительности.

В архитектуре TU116 также представлено множество интеллектуальных технологий затенения, которые повышают эффективность графической карты за счет снижения рабочей нагрузки графического процессора без ущерба для качества изображения.

Один из этих методов называется Motion Adaptive Shading. Эта функция изменяет скорость затенения в зависимости от уровня движения на дисплее. Подумайте о том, чтобы поиграть в игру, подобную Forza Horizon 4, где вы ускоряете гоночный курс – нет смысла затенять подобные дорожные знаки и дорожную разметку во всех деталях, когда они не более чем размытые невооруженным глазом, когда вы гудите. от. И жертвуя такими ненужными деталями, графический процессор получает взамен вкусное повышение производительности. Это так умно, что почти похоже на обман.

Контент-адаптивное затенение является аналогичной техникой, которая также обеспечивает повышение производительности за счет снижения нагрузки на графический процессор. Однако в этот раз повышенная эффективность достигается благодаря алгоритму, который определяет скорость затенения в соответствии с «пространственной и цветовой когерентностью между кадрами». Говоря простым языком, это фактически означает, что если какой-либо объект или часть пейзажа неподвижны и не меняются по внешнему виду в течение длительных периодов времени – например, стены или неба – графический процессор прилагает меньше усилий, затеняя его каждый Рамка. Это значит без потери качества изображения.

Я большой поклонник этих технологий адаптивного затенения, и, хотя они могут быть не такими захватывающими, как функции RTX, они, безусловно, более полезны, чем трассировка лучей для обычного геймера. Однако есть предостережение: не каждая видеоигра использует новую технологию Adaptive Shading с Wolfenstein II: New Colossus как раз и поддерживает технологию.

Как ни странно, это означает, что современные игры с большей вероятностью получат больший прирост производительности, чем выпуски игр, выпущенные несколько лет назад, поскольку первые используют более продвинутые и сложные методы затенения. Nvidia продемонстрировала это на графике: Shadow of the Tomb Raider и Call of Duty Black Ops 4 увидели больший скачок в производительности, чем Fallout 4, по сравнению с видеокартами, использующими архитектуру Pascal.

Последней особой силой, которую архитектура TU116 наделила GTX 1660, является возможность потоковой передачи видеоигр в 4K независимо от того, какой процессор вы используете. GTX 1660 может даже транслировать и транслировать одновременно из одной системы, что станет большим благом для тех одержимых Twitch.

Связанный: Обзор PNY GeForce GTX 1660 Ti

Gigabyte GTX 1660 – Дизайн и разъемы

Честно говоря, Gigabyte GTX 1660 имеет довольно скучный дизайн. У этого есть черный пластиковый слой, который едва покрывает всю проводку и компоненты, набитые вместо этого. И хотя надпись «Gigabyte» написана ярким серебряным шрифтом как на задней, так и на передней панели фанатов, здесь немного другой личности. Но поскольку видеокарта, вероятно, будет спрятана в вашем оборудовании, это не так уж сложно.

Как и его производительность, дизайн эффективен, хотя. Установка с двумя вентиляторами гарантирует, что карта никогда не станет слишком горячей, с рекордно низкой температурой записи 62 ° C.

Здесь также имеется достаточное количество подключений, с тремя предложениями для DisplayPort и одним для HDMI. Здесь нет порта DVI, но это не должно быть проблемой для большинства людей. GTX 1660 нуждается в восьмиконтактном разъеме питания PCle, чтобы получить все соки, поэтому он не так требователен, как, например, его более дорогой брат RTX 2080 Ti.

Похожие: Лучшие игровые мониторы 2019 года

Gigabyte GTX 1660 – производительность и тесты

Gigabyte GTX 1660 предлагает фантастическую производительность Full HD, учитывая его доступную цену. В каждом тесте, который мы запускали, он показывал лучшие результаты кадра, чем GTX 1060, и даже приближался к тому, чтобы время от времени толкать GTX 1070.

Во всех играх, кроме самых печально известных GPU, GTX 1660 способен воспроизводить игры со скоростью 60 кадров в секунду в Full HD. Эта производительность достаточно высока для всех, кроме самых конкурентоспособных киберспортсменов. Здесь есть только одна проблема: GTX 1660 Ti предлагает лучшую производительность и не стоит так дорого.

Я также протестировал видеокарты GTX 1060 (Founders Edition), GTX 1660 Ti (PNY) и GTX 1070 (MSI), чтобы лучше понять, как GTX 1660 выдерживает конкуренцию.

Методология тестирования

Таким образом, вы точно знаете, какую систему я использовал при тестировании Gigabyte GTX 1660, ниже я перечислил компоненты. Это тоже самое Надежные Отзывы оснастка, которую я использую для всех наших последних обзоров видеокарт:

* Примечание редактора: Я не включал карты AMD Vega, RX590 и RX580, потому что в настоящее время у меня нет сэмплов. Я обновлю этот обзор, как только получу их обратно.

Тень Расхитительницы Гробниц

Я использовал Shadow of the Tomb Raider для наших тестов, так как это одна из самых потрясающих игр AAA, доступных на данный момент. Поскольку Nvidia утверждает, что любой из ее графических процессоров, использующих архитектуру TU116, может получить повышение производительности благодаря передовой технологии затенения, еще более важно использовать современные видеоигры для тестирования здесь.

Gigabyte GTX 1660 обеспечивает производительность 69 кадров в секунду с предустановкой графики «Высочайшее» и разрешением Full HD. Он находится почти посередине между GTX 1060 и GTX 1660 Ti, что имеет смысл, учитывая названия и характеристики. Вероятно, улучшения недостаточно для того, чтобы заставить владельцев GTX 1060 перейти на модернизацию, но сейчас это, безусловно, лучший вариант для тех, кому еще предстоит сделать прыжок на видеокарты 10-й серии.

Результаты для Quad HD и 4K не настолько убедительны. Это не удивительно – GTX 1660 позиционируется как бюджетный Full HD GPU. Вам нужно будет заплатить немного больше, чтобы запустить современные игры с превосходным разрешением.

Ghost Recon Wildlands

Ghost Recon Wildlands – одна из самых требовательных к видеоиграм видеокарт, и она не оптимизирована для аппаратного обеспечения Nvidia, так что не слишком шокирует тот факт, что Gigabyte GTX 1660 борется с ней. Он, безусловно, по-прежнему воспроизводится в Full HD со скоростью 44 кадра в секунду, но производительность, безусловно, не идеальна.

Это ничем не отличается от других видеокарт по этой цене: GTX 1660 Ti управляет только дополнительными 5 кадр / с в среднем, в то время как GTX 1070 ограничен увеличением на 6 кадр / с. Положительным моментом здесь является то, что немногие другие игры будут такими же интенсивными, как этот шутер с открытым миром, и тот факт, что GTX 1660 способен на все это, по-прежнему является большим плюсом.

Даже не думайте о том, чтобы играть в Wildlands в Quad HD или 4K с GTX 1660, хотя производительность при такой низкой средней частоте кадров выглядит нестабильной. Если вы собираетесь часто играть в Wildlands, я рекомендую выбрать более дорогую видеокарту.

Грязное ралли

Я всегда включаю Dirt Rally в наши тесты, так как это отличный пример игры AAA, выпущенной несколько лет назад. Это означает, что высокий результат теста должен указывать на то, что рассматриваемый графический процессор является хорошим вариантом для игры через ваше отставание.

GTX 1660 показал среднюю производительность 96 кадров в секунду в тесте производительности в игре. Это отличный результат, с разницей всего в 2 кадра в секунду, отделяющей его от более дорогого GTX 1660 Ti. С этими результатами я ожидаю, что GTX 1660 пробьет любую видеоигру, выпущенную более 4 лет назад.

Результаты в Quad HD также были впечатляющими при скорости 71 кадр / с, достигнув скорости 60 кадров в секунду по золотому стандарту. Единственным недостатком здесь является то, что производительность все еще невелика в 4K, но просить бюджетную видеокарту преуспеть в Ultra HD немного несправедливо.

Apex Legends

Nvidia очень стремилась донести свою точку зрения по этой видеокарте, используя архитектуру TU116, чтобы оптимизировать ее для игр типа «битва-рояль», таких как Fortnite, PlayerUnknown’s Battlegrounds и Apex Legends. Я выбрал последний из трех, так как это самая последняя выпущенная игра.

GTX 1660 Ti был способен на невероятную производительность 120 кадров в секунду при воспроизведении Apex Legends в Full HD при максимальных настройках графики. GTX 1660 довольно далеко от этого замечательного достижения со средней частотой кадров 100 кадров в секунду, но все же способен превзойти результат GTX 1070 на 5 кадров в секунду, что очень впечатляет. GTX 1660 также способен работать в Quad HD с производительностью 65 кадров в секунду.

Обратите внимание, что, поскольку у Apex нет собственного теста в игре, мне пришлось вычислять среднее значение с помощью наложенного счетчика частоты кадров. Этот метод не является самым надежным решением, но, по крайней мере, он предоставляет фигуру из реальной игры, а не симулированную программу.

3DMark Fire Strike Ultra

Результаты тестов, найденные в игре, безусловно, лучший способ оценить производительность видеокарты, но также полезно посмотреть, какие цифры получаются с помощью специального программного обеспечения для тестирования производительности. Fire Strike Ultra от 3DMark моделирует видеоигру, а затем видит конечный результат, который можно сравнить с другими картами.

Результат GTX 1660 – 2842 – выглядит довольно скромно, даже GTX 1060 может похвастаться более высоким показателем 3021, который не совпадает со всеми результатами тестов в игре. Вероятно, это связано с тем, что архитектура TU116 значительно повышает производительность благодаря технологиям интеллектуального шейдинга, что, вероятно, не учитывается в этих смоделированных тестах. В конце концов, GTX 1660 – это эффективность, а не чистая мощность.

Эта эффективность дополнительно подтверждается результатом пиковой потребляемой мощности GTX 1660 в 171,9 Вт. Это самый низкий показатель в тесте, что является отличной новостью для снижения затрат при покупке блока питания.

Пиковая температура, тем временем, достигает 62 ° C, что соответствует всем другим видеокартам Nvidia в этом тесте. При такой низкой пиковой температуре вам не нужно беспокоиться о выжигании этого графического процессора – если, конечно, вы не начнете заниматься разгоном.

Связанный: Лучший игровой компьютер 2019

Gigabyte GeForce GTX 1660 – разгон

Ранее я обнаружил, что видеокарты с архитектурой Turing не очень открыты для разгона, а Nvidia уже выжимает как можно больше производительности. GTX 1660, похоже, отражает эту тенденцию, поскольку мне удалось увеличить тактовые частоты на 200 МГц. Когда я попытался разогнать его дальше, программа Unigine стала нестабильной и даже зависала.

Интересно, что разгон на 200 МГц привел только к увеличению производительности на 4 к / с. Это разочаровывает, до такой степени, что я лично не думаю, что это стоит того, чтобы пройти через это усилие. Тем не менее, у меня были временные ограничения при попытке разогнать GTX 1660, поэтому более профессиональные оверклокеры, скорее всего, увидят улучшенные результаты, хотя я сомневаюсь со значительным отрывом.

Зачем покупать Gigabyte GTX 1660?

Gigabyte GTX 1660 – это еще один большой триумф архитектуры TU116, который является фантастической видеокартой для HD-игр. Благодаря своей высокой производительности и конкурентоспособной цене, GTX 1660 делает GTX 1060 избыточным.

Предлагает ли GTX 1660 достаточный скачок производительности, чтобы владельцы GTX 1060 стоили его обновить? На самом деле, нет. Но это превосходная новая возможность для начинающих покупателей или для тех, кто еще не перешел на карту серии 900.

Эта карта особенно хороша для поклонников Battle Royale: GTX 1660 обеспечивает производительность, аналогичную GTX 1070, несмотря на то, что последняя значительно дороже.

Единственное, что я сомневаюсь в GTX 1660, это то, что он может быть оценен слишком близко к GTX 1660 Ti. Я по-прежнему считаю, что последний предлагает лучшее соотношение цены и качества Full HD, поэтому невероятно заманчиво потратить дополнительные 60 фунтов стерлингов на лучшую производительность. Но если вы рассчитываете быть безжалостными с вашим бюджетом при создании новой системы, то GTX 1660 по-прежнему является безусловно фантастическим вариантом.

решение суда

Gigabyte GTX 1660 предлагает превосходную ценность для игр Full HD, но вы можете испытать соблазн потратить немного больше на чуть более мощный GTX 1660 Ti.

Nvidia NVLink против SLI — различия и сравнение

С тех пор, как стало возможным использовать несколько видеокарт в системе, мы видели, как энтузиасты жаждут чудовищных машин с двумя, тремя или даже четырьмя видеокартами, установленными в них одновременно. ПК с несколькими видеокартами считались самым лучшим, что могла предложить отрасль. Мы даже видели, как несколько графических процессоров были втиснуты в одни и те же видеокарты с такими картами, как Nvidia GeForce GTX 690 и AMD R9 295 × 2. Но при всей этой шумихе и славе системы с несколькими графическими процессорами, похоже, никогда не получили успеха. Их популярность быстро и резко упала вскоре после пика популярности систем с несколькими графическими процессорами. Это снижение было связано с несколькими факторами, и одним из них была ненадежность мостовой системы, которая использовалась для соединения видеокарт друг с другом.

Две видеокарты Nvidia GeForce GTX 1080 в SLI – Изображение: Nvidia

Техника Nvidia для соединения двух или более видеокарт друг с другом была известна как SLI, что означает Scalable Link Interface. Это была технология, которую Nvidia купила у 3dfx Interactive, которая представила ее в 1998 году. По сути, SLI – это торговая марка технологии Nvidia с несколькими графическими процессорами, созданная для соединения двух или более видеокарт в один выход с использованием алгоритма параллельной обработки. AMD, конкурент Nvidia, также представила свою версию технологии, известную как Crossfire.

Как работает SLI?

Видеокарты в системе SLI работают в конфигурации главный-подчиненный, что означает, что одной из карт назначается роль «мастера», несмотря на то, что нагрузка равномерно распределяется между всеми картами. Когда «подчиненная» карта завершает рендеринг, она отправляет свои выходные данные мастеру, который затем объединяет два рендеринга и доставляет выходное изображение на монитор. В конфигурации с двумя картами главная карта обычно обрабатывает верхнюю половину изображения, а подчиненная карта обрабатывает нижнюю половину.

Как работает SLI – Изображение: Linus Tech Tips

Две (или более) карты подключаются через мост SLI или коннектор SLI. Основное назначение моста SLI – установить соединение между картами и позволить картам установить канал связи между ними. Несмотря на то, что без SLI Bridge можно запускать несколько карт, есть несоответствие спецификаций, и обычно результаты очень плохие. SLI Bridge снижает ограничения полосы пропускания и может отправлять данные напрямую между картами. Три типа мостов SLI:

  • Стандартный мост (частота пикселей 400 МГц, пропускная способность 1 ГБ / с): это стандартный мост, входящий в комплект поставки материнских плат, поддерживающих SLI до 1920 × 1080 и 2560 × 1440 при 60 Гц.
  • Светодиодный мост (частота пикселей 540 МГц): рекомендуется для мониторов с разрешением до 2560 × 1440 при 120 Гц + и 4K. Он может работать только с увеличенной частотой пикселей, если графический процессор поддерживает эту частоту. Он продается Nvidia, а также рядом партнеров AIB.
  • Мост с высокой пропускной способностью или мост SLI HB (тактовая частота пикселей 650 МГц и пропускная способность 2 ГБ / с): это самый быстрый мост, который продается исключительно Nvidia. Рекомендуется для мониторов до 5K и объемного звучания. Мосты SLI HB доступны только в двухполосных конфигурациях, поэтому установка с более чем двумя картами здесь не удалась.

Механизм действия SLI

SLI работает двумя основными способами. Один из них – это SFR или рендеринг с разделением кадров, при котором система анализирует визуализированное изображение, чтобы разделить нагрузку между графическими процессорами, подключенными в SLI. Рамка разделена на две части горизонтальной линией. Размещение линии зависит от геометрии сцены. Основным решающим фактором при размещении линии будет сложность нагрузки, которую сцена требует в различных областях. Если одна из карт визуализирует верхнюю часть сцены, на которой есть небо, тогда линия будет ниже на изображении, чтобы компенсировать разницу в загрузке между двумя картами.

Другой способ работы SLI – это AFR или рендеринг альтернативного кадра, который довольно прост. В этом методе каждый второй кадр обрабатывается другим графическим процессором. Одна из карточек отображает все нечетные кадры, а другая – все четные. Доказано, что AFR имеет лучшую частоту кадров, чем SFR, однако он вводит новую форму артефактов, известную как микро заикание. Даже если частота кадров достаточно высока, микрорельефы могут повлиять на воспринимаемую гладкость изображения из-за небольших заиканий между кадрами из-за переменного темпа, с которым карты работают в AFR.

Взлет и падение SLI

Популярность SLI резко возросла во время серии видеокарт Kepler, Maxwell и Pascal, но с тех пор она постоянно и резко снижается. Даже в эпоху серии видеокарт GTX 1000 от Nvidia популярность SLI падала. Конечно, видеокарты SLI могут обеспечить лучшую производительность, чем одиночный графический процессор, и даже выглядят фантастически при установке в корпус, но в первую очередь у SLI было больше проблем, чем преимуществ.

Прежде всего, вам нужно было проверить, поддерживает ли ваша материнская плата SLI. Это был жизненно важный шаг, поскольку некоторые материнские платы поддерживали SLI, некоторые поддерживали Crossfire, а некоторые поддерживали и то, и другое, а другие не поддерживали ни одного. После этого у вас должны были быть идентичные видеокарты. Это было непросто, так как это сделало ценовое предложение действительно искаженным по сравнению с более производительной одиночной видеокартой. Видеокарты должны были быть одной и той же модели и серии и даже одного производителя ранее, однако позже это было несколько облегчено. Для работы с несколькими видеокартами также требовался мощный и дорогой блок питания (о котором вы можете узнать больше прямо здесь), а также необходимо было отслеживать и контролировать термические характеристики из-за того, что несколько энергоемких карт работали в непосредственной близости друг от друга.

Для запуска такой установки SLI требуется много энергии – Изображение: GPUMag

Настоящей ахиллесовой пятой всей экосистемы SLI была игровая поддержка. Не все игры поддерживали SLI, и даже те, которые поддерживали, дали не впечатляющий прирост производительности, если учесть дополнительные вложения. В большинстве случаев вам было бы намного лучше купить более мощную одиночную видеокарту, чем две более слабые и установить их в SLI. С годами поддержка SLI стала еще хуже, и разработчики редко задумываются об этом в современных играх. Наконец, смертельный удар был нанесен не кем иным, как самой Nvidia, которая прекратила поддержку SLI большинством своих графических карт. Что касается линейки графических процессоров Turing, только лучшая из лучших, RTX 3090, поддерживает SLI. Это означает, что SLI для обычных потребителей практически мертв в том, что касается игр.

Что такое NVLink?

В линейке видеокарт Turing Nvidia представила новую технологию для подключения нескольких видеокарт, известную как NVLink. Это интерфейс, пропускная способность которого во много раз превышает пропускную способность старого интерфейса SLI, а также имеет множество дополнительных особенностей и функций. С технической точки зрения, это последовательный многополосный канал связи ближнего действия с протоколом проводной связи. Непросто, не правда ли? В более общем плане, это улучшенный интерфейс связи между несколькими видеокартами Nvidia, который обещает больше преимуществ и функций, чем старый SLI.

NVLink обещает значительный скачок пропускной способности – Изображение: Nvidia

NVLink можно рассматривать как попытку Nvidia вернуть себе долю рынка мульти-графических процессоров, которая сократилась в 2020 году. Эта технология обещает сделать игры с использованием нескольких видеокарт желательным и высокоэффективным методом в ближайшем будущем. NVLink по сути является гораздо более быстрым мостом, чем SLI, и призван сократить разрыв в задержках между двумя видеокартами. Директор по техническому маркетингу Nvidia Том Петерсон говорит по этому поводу следующее:

«Этот мост виден играм, а это значит, что, возможно, будет приложение, которое смотрит на один графический процессор, а смотрит на другой и делает что-то еще», – объясняет Петерсен. «Проблема с вычислениями с несколькими графическими процессорами заключается в том, что задержка от одного графического процессора к другому очень велика. Он должен проходить через PCIe, он должен проходить через память, это очень большое расстояние с точки зрения транзакции »…» NVLink все это исправляет. Таким образом, NVLink значительно снижает задержку передачи данных от графического процессора к графическому процессору. Так что дело не только в пропускной способности, а в том, насколько мне близка память этого графического процессора. Этот графический процессор, который находится по ссылке … Я могу думать об этом как о своем брате, а не как о дальнем родственнике ».

Он также добавил, что NVLink был скорее планом на будущее, чем текущим решением:

«Думайте о мосте больше, поскольку мы хотим заложить фундамент для будущего»… »И как только это сработает, и мы развернем мосты, и люди поймут, что это мост со скоростью 100 ГБ / с, разработчики игр будут видеть, что.”

Похоже, что Nvidia на самом деле делает ставку на будущее NVLink, а не на настоящее. Nvidia знает, что поддержка нескольких графических процессоров на данный момент довольно разочаровывает, поэтому они хотят представить технологию, которая будет пытаться не только изменить точку зрения разработчиков игр, но и взгляды обычных потребителей на использование нескольких графических процессоров. поддерживать.

Как работает NVLink?

В отличие от SLI, NVLink использует ячеистую сеть, которая представляет собой топологию сети, в которой узлы инфраструктуры подключаются напрямую неиерархическим способом. Это позволяет ретранслировать информацию каждым узлом индивидуально, а не маршрутизировать через один конкретный узел. Это также позволяет узлам динамически самоорганизовываться, что позволяет динамически распределять рабочие нагрузки. NVLink черпает свою главную силу в этом механизме, а именно в его скорости.

NVLink также покончил с отношением «главный-подчиненный» в реализации SLI, вместо этого он обрабатывает каждый узел одинаково, что значительно улучшает скорость рендеринга. В отличие от SLI, NVLink имеет то преимущество, что память обеих видеокарт всегда доступна. Это связано с невероятной реализацией NVLink в ячеистой сети. По сути, связь карт NVLink является двунаправленной, и две подключенные карты действуют как одна.

Как работает NVLink – Изображение: Linus Tech Tips

Скорость интерфейса NVLink отражается на пропускной способности его мостов. В то время как даже лучшие мосты SLI имели пропускную способность в лучшем случае 2 ГБ / с, мост NVLink в некоторых случаях обещает ошеломляющие 200 ГБ / с. Конечно, мосты NVLink на 160 и 200 ГБ / с ограничены графическими процессорами профессионального уровня Nvidia Quadro GP100 и GV100 соответственно, но эти цифры по-прежнему свидетельствуют о невероятном скачке пропускной способности интерфейса NVLink по сравнению с SLI. Графические процессоры для энтузиастов высшего уровня, такие как TITAN RTX или 2080Tis, в большинстве случаев могут рассчитывать на потенциальную пропускную способность колоссальных 100 ГБ / с.

Стоит ли NVLink?

Итак, NVLink от Nvidia наконец-то устранил проблемы рендеринга на нескольких GPU в играх? Что ж, ответ по-прежнему отрицательный. Хотя NVLink добилась некоторых положительных успехов в правильном направлении, особенно в методе, в котором обе карты используются по сравнению с SLI, проблема SLI никогда не заключалась в методологии. Настоящая проблема экосистемы с несколькими GPU – поддержка игр. Даже с NVLink большинству современных игр сложно использовать более одного графического процессора. Принимая во внимание стоимость двух видеокарт и незначительное улучшение производительности в большинстве сценариев, было бы неразумно инвестировать в NVLink для потребительских приложений, таких как игры.

NVLink против SLI Bridge – Изображение: Nvidia

Для профессиональной работы NVLink может быть просто необходимостью обновления. Для людей, работающих с графическими процессорами Nvidia Quadro или такими картами, как RTX A6000, NVLink может быть большим подспорьем не только в повышении производительности рендеринга, но и благодаря тому факту, что NVLink позволяет получить доступ к общей памяти обеих карт, что может быть огромная помощь в профессиональных нагрузках.

Однако для большинства геймеров выбор одной видеокарты, которая предлагает более высокую производительность, является лучшей идеей, чем покупка двух более слабых карт и подключение их через NVLink или SLI, если на то пошло.

Заключительные слова

SLI от Nvidia была интересной и привлекательной технологией, когда она была впервые запущена и вскоре приобрела популярность благодаря своему потенциалу и довольно приличной поддержке со стороны разработчиков в эпоху Максвелла и Паскаля. Однако пик популярности SLI был недолгим, поскольку индустрия быстро двигалась вперед, а SLI остался в прошлом, и как разработчики, так и геймеры отказались от технологии в пользу более мощных графических процессоров.

Nvidia попыталась заново изобрести рынок нескольких графических процессоров, запустив NVLink, который представляет собой значительно улучшенное соединение по сравнению с SLI, но, тем не менее, он не может решить многие проблемы, которые в первую очередь мешают SLI. Это делает его жесткой рекомендацией для геймеров в 2020 году, когда более мощные одиночные видеокарты могут обеспечить лучший опыт надежно и по более низкой цене.

Обзор видеокарты NVIDIA Geforce GTX 880M


GeForce 800M Series
Кодовое имя Kepler (GK) или Maxwell (GM)
Дата релиза 12 марта 2014[1]
GPU начального уровня GeForce 800M, GeForce 820M, GeForce 830M, GeForce 840M
GPU среднего диапазона GeForce GTX 850M, GeForce GTX 860M
Топовые GPU GeForce GTX 870M, GeForce GTX 880M
Версия Direct3D и шейдеров полная поддержка Direct3D 11.0 и частичная Direct3D 12.0[2][3]
Версия OpenGL OpenGL 4.5[4]
Версия OpenCL OpenCL 1.1
Вариант GeForce 700 Series
Преемник GeForce 900 Series

GeForce 800M Series
— семейство графических процессоров Nvidia, используемых в ноутбуках. Название серии GeForce 800 изначально планировалось использовать как мобильных чипов, так и для настольных. Планировалось использовать микроархитектуру Maxwell, которая была ранее использована в некоторых GPU GeForce 700 Series, а именно в GTX 750 и GTX 750 Ti, выпущенных 8 февраля 2014 года. Тем не менее, поскольку мобильные графические процессоры GeForce 800M Series уже были выпущены с использованием архитектуры Kepler, Nvidia решила переименовать свои графические процессоры GeForce 800 для настольных компьютеров в GeForce 900 Series.

Краткие характеристики

Этот видеочип, получивший кодовое название N15V-GM, с самого начала позиционировался как бюджетный вариант, не рассчитанный на игровые программы. Однако, несмотря на это, он получил вполне неплохие характеристики, позволяющие справляться и с довольно трудоемкими задачами.

Так, его основой служит ядро GF117, выполненное по 28-нанометровому техпроцессу. Это обеспечивает низкий уровень нагрева, что положительно сказывается при использовании в ноутбуках и неттопах ввиду потребности в компактной системе охлаждения, неспособной рассеивать большое количество выделяемого тепла.

Ядро GF117 представляет из себя комбайн, состоящий из 96 шейдеров, которые, говоря профессиональным языком, называются CUDA-ядрами. Они принимают на себя основной удар, когда речь идет о работе с трехмерной графикой. В дополнение к ним задействуются 16 текстурных ядер, а также 8 растровых, что в общем дает приемлемую по бюджетным меркам производительность.

Все ядра работают на общей частоте в 775 МГц, что, к сожалению, явно не вписывается в современные стандарты производительности. Дополняет картину 64-битная шина памяти, которая сразу дает понять, что с последними играми видеокарта может и не справиться, однако, в данном случае стоит экспериментировать, ведь все зависит от конкретной ситуации и остальных компонентов ноутбука. Доукомплектовывается чип 1 Гб памяти стандарта DDR3.

Радует наличие поддержки таких распространенных протоколов, как DirectX 11, Optimus, OpenCL 1.1, OpenGL 4.4 и Pixel Shader 5.0. Графическое ядро может обмениваться данными с памятью на скорости до 14,4 Гб в секунду. Максимальная мощность графического ускорителя составляет 15 Вт.

Отрывок, характеризующий GeForce 800M

– Они! Нет, это не Мытищи, это дале. – Глянь ка, точно в Москве. Двое из людей сошли с крыльца, зашли за карету и присели на подножку. – Это левей! Как же, Мытищи вон где, а это вовсе в другой стороне. Несколько людей присоединились к первым. – Вишь, полыхает, – сказал один, – это, господа, в Москве пожар: либо в Сущевской, либо в Рогожской. Никто не ответил на это замечание. И довольно долго все эти люди молча смотрели на далекое разгоравшееся пламя нового пожара. Старик, графский камердинер (как его называли), Данило Терентьич подошел к толпе и крикнул Мишку. – Ты чего не видал, шалава… Граф спросит, а никого нет; иди платье собери. – Да я только за водой бежал, – сказал Мишка. – А вы как думаете, Данило Терентьич, ведь это будто в Москве зарево? – сказал один из лакеев. Данило Терентьич ничего не отвечал, и долго опять все молчали. Зарево расходилось и колыхалось дальше и дальше. – Помилуй бог!.. ветер да сушь… – опять сказал голос. – Глянь ко, как пошло. О господи! аж галки видно. Господи, помилуй нас грешных! – Потушат небось. – Кому тушить то? – послышался голос Данилы Терентьича, молчавшего до сих пор. Голос его был спокоен и медлителен. – Москва и есть, братцы, – сказал он, – она матушка белока… – Голос его оборвался, и он вдруг старчески всхлипнул. И как будто только этого ждали все, чтобы понять то значение, которое имело для них это видневшееся зарево. Послышались вздохи, слова молитвы и всхлипывание старого графского камердинера. Камердинер, вернувшись, доложил графу, что горит Москва. Граф надел халат и вышел посмотреть. С ним вместе вышла и не раздевавшаяся еще Соня, и madame Schoss. Наташа и графиня одни оставались в комнате. (Пети не было больше с семейством; он пошел вперед с своим полком, шедшим к Троице.) Графиня заплакала, услыхавши весть о пожаре Москвы. Наташа, бледная, с остановившимися глазами, сидевшая под образами на лавке (на том самом месте, на которое она села приехавши), не обратила никакого внимания на слова отца. Она прислушивалась к неумолкаемому стону адъютанта, слышному через три дома. – Ах, какой ужас! – сказала, со двора возвративись, иззябшая и испуганная Соня. – Я думаю, вся Москва сгорит, ужасное зарево! Наташа, посмотри теперь, отсюда из окошка видно, – сказала она сестре, видимо, желая чем нибудь развлечь ее. Но Наташа посмотрела на нее, как бы не понимая того, что у ней спрашивали, и опять уставилась глазами в угол печи. Наташа находилась в этом состоянии столбняка с нынешнего утра, с того самого времени, как Соня, к удивлению и досаде графини, непонятно для чего, нашла нужным объявить Наташе о ране князя Андрея и о его присутствии с ними в поезде. Графиня рассердилась на Соню, как она редко сердилась. Соня плакала и просила прощенья и теперь, как бы стараясь загладить свою вину, не переставая ухаживала за сестрой. – Посмотри, Наташа, как ужасно горит, – сказала Соня. – Что горит? – спросила Наташа. – Ах, да, Москва. И как бы для того, чтобы не обидеть Сони отказом и отделаться от нее, она подвинула голову к окну, поглядела так, что, очевидно, не могла ничего видеть, и опять села в свое прежнее положение. – Да ты не видела? – Нет, право, я видела, – умоляющим о спокойствии голосом сказала она. И графине и Соне понятно было, что Москва, пожар Москвы, что бы то ни было, конечно, не могло иметь значения для Наташи. Граф опять пошел за перегородку и лег. Графиня подошла к Наташе, дотронулась перевернутой рукой до ее головы, как это она делала, когда дочь ее бывала больна, потом дотронулась до ее лба губами, как бы для того, чтобы узнать, есть ли жар, и поцеловала ее. – Ты озябла. Ты вся дрожишь. Ты бы ложилась, – сказала она. – Ложиться? Да, хорошо, я лягу. Я сейчас лягу, – сказала Наташа. С тех пор как Наташе в нынешнее утро сказали о том, что князь Андрей тяжело ранен и едет с ними, она только в первую минуту много спрашивала о том, куда? как? опасно ли он ранен? и можно ли ей видеть его? Но после того как ей сказали, что видеть его ей нельзя, что он ранен тяжело, но что жизнь его не в опасности, она, очевидно, не поверив тому, что ей говорили, но убедившись, что сколько бы она ни говорила, ей будут отвечать одно и то же, перестала спрашивать и говорить. Всю дорогу с большими глазами, которые так знала и которых выражения так боялась графиня, Наташа сидела неподвижно в углу кареты и так же сидела теперь на лавке, на которую села. Что то она задумывала, что то она решала или уже решила в своем уме теперь, – это знала графиня, но что это такое было, она не знала, и это то страшило и мучило ее.

Применение видеочипа

Производители ноутбуков активно используют данную видеокарту в своих разработках. Так, сейчас довольно сложно найти марку, которая бы не выпускала ноутбуки или неттопы с такими популярными мобильными процессорами, как Intel 3700, Intel 1900 и другими. Именно для них и предназначался этот дискретный видеочип. Хотя процессоры и оснащены графикой Intel HD, ее производительность значительно ниже, и в случае с игровыми программами необходимость дополнительного мощного графического чипа просто очевидна.

Преимущества

Чем GeForce GTX 760M лучше?

Лучше оценка PassMark 1,394 vs 573 Приблизительно в 2.5x раз лучше оценка PassMark
Выше эффективная тактовая частота памяти 4,008 MHz vs 1,800 MHz Приблизительно в 2.2x раз выше эффективная тактовая частота памяти
Гораздо лучше тест T-Rex 3,356.92 vs 1,601.66 Больше чем в 2x раз лучше тест T-Rex
Выше пропускная способность памяти 64.1 GB/s vs 14.4 GB/s Приблизительно в 4.5x раз выше пропускная способность памяти
Больше памяти 2,048 MB vs 1,024 MB В 2x раз больше памяти
Лучше производительность с плавающей запятой 964.6 GFLOPS vs 141.7 GFLOPS Больше чем в 6.8x раз лучше производительность с плавающей запятой
Существенно больше блоков текстурирования 64 vs 8 На 56 больше блоков текстурирования
Выше скорость проработки текстур 40.2 GTexel/s vs 5.9 GTexel/s Больше чем в 6.8x раз выше скорость проработки текстур
Существенно лучше рейтинг построения видео 30.42 frames/s vs 7.25 frames/s Приблизительно в 4.2x раз лучше рейтинг построения видео
Больше шейдерных блоков 768 vs 48 На 720 больше шейдерных блоков
Выше скорость пиксельного заполнения 10.05 GPixel/s vs 1.48 GPixel/s Больше чем в 6.8x раз выше скорость пиксельного заполнения
Больше блоков растровых операций 16 vs 8 В два раза больше блоков растровых операций
Шире шина памяти 128 bit vs 64 bit В 2x раз шире шина памяти
Выше тактовая частота памяти 1,002 MHz vs 900 MHz Больше чем на 10% выше тактовая частота памяти

Чем GeForce 800M лучше?

Выше тактовая частота 738 MHz vs 628 MHz Приблизительно на 20% выше тактовая частота
Ниже энергопотребление 15W vs 55W В 3.7x раз ниже энергопотребление

Прямые конкуренты

Сложно сказать, какие именно видеочипы будут прямыми конкурентами этой модели, поскольку большинство бюджетников обладают подобными характеристиками. Все же, постаравшись выбрать некоторые из них, можно составить небольшой список.

Так, среди решений производства компании AMD таковым можно считать чип R7 M265, получивший подобные данные. Однако, по количеству шейдеров он значительно превосходит разбираемую модель GeForce 810M. Среди вариантов прошлых лет выделяются такие чипы, как Intel Iris Pro Graphics, причем почти весь их модельный ряд.

Относительно цен сделать вывод сложно, поскольку данные чипы не являются самостоятельным продуктом, а применяются только в готовых мобильных компьютерах, в которых основой ценообразования является политика компании-производителя. Здесь уже следует полагаться на собственные предпочтения относительно как фирмы-производителя самого ноутбука, так и разработчика графического чипа и процессора.

Разгон этого поколения видеочипов не предусмотрен, и, по сути, попросту невозможен, поскольку потенциала для данной операции нет как у самого чипа, так и у системы охлаждения. Стоит отметить, что в некоторых случаях может быть установлена даже пассивная СО, которая рассчитана впритык на базовое тепловыделение. Поэтому, даже если бы возможность разгона предусматривалась производителем, она была бы крайне нежелательной.

Сравнительные бенчмарки (benchmarks)

PassMark

GeForce GTX 760M 1,394
GeForce 800M 573

Майнинг Биткоина

GeForce GTX 760M 53.99 mHash/s
GeForce 800M 15.22 mHash/s

Распознавание лиц

GeForce GTX 760M 15.67 mPixels/s
GeForce 800M 4.91 mPixels/s

Моделирование поверхности океана

GeForce GTX 760M 510 frames/s
GeForce 800M 109.13 frames/s

Моделирование частиц

GeForce GTX 760M 167.8 mInteraction/s
GeForce 800M 31.67 mInteraction/s

Построение видео

GeForce GTX 760M 30.42 frames/s
GeForce 800M 7.25 frames/s

T-Rex (GFXBench 3.0)

GeForce GTX 760M 3,356.92
GeForce 800M 1,601.66

Тестирование видеочипа

Ряд известных изданий провел тестирование данной видеокарты, с целью определения уровня производительности. Так, для этого применялась известная среда тестирования под названием 3DMark. В ней можно увидеть три основных показателя, каждый из которых показывает определенную сферу.

Чип NVIDIA GeForce 810M получил следующие результаты:

  • Cloud Gate – 3931 балл;
  • Fire Strike – 401 балл;
  • Unigine Heaven 3.0 – 189 баллов.

Согласно этим исследованиям, ближайшим чипом по результатам производительности является Intel HD Graphics 520, который встроен в топовые процессора этого производителя. Как видим, это показывает бюджетную составляющую видеокарты, но, справедливости ради, можно отметить, что она вполне может справиться с большинством игр до 2015-2016 годов выпуска, пусть и на низких настройках графики.

Примечания

  1. Семейство RIVA 128 • TNT • TNT2
    Семейство GeForce GeForce 256 • GeForce 2 • GeForce 3 • GeForce 4 • GeForce FX • GeForce 6 • GeForce 7 • GeForce 8 • GeForce 9 • GeForce 100 • GeForce 200 • GeForce 300 • GeForce 400 • GeForce 500 • GeForce 600 • GeForce 700 • GeForce 800M • GeForce 900 • GeForce 10
    Рабочие станции и HPC Quadro • (Plex • CX) • Tesla
    Технологии SLI • PureVideo • TurboCache • PhysX • CUDA • OptiX • FXAA • 3D Vision
    Чипсеты материнских плат
    Семейство nForce nForce 220 / 415 / 420 • nForce2 • nForce3 • nForce4 • nForce 500 • nForce 600 • nForce 700
    Технологии ESA • EPP • LinkBoost • MXM • MCP • SoundStorm • SLI
    Прочее
    SoC GoForce • Tegra (Tegra APX 2500 • Tegra (серия 600) • Tegra APX 2600 • Tegra 2 • Tegra 3 • Tegra 4 • Tegra 4i • Tegra K1 • Tegra X1)
    Драйверы / ForceWare • System Tools • nView • Gelato • CUDA •
    Приобретения 3dfx Interactive • ULi • Hybrid Graphics • PortalPlayer • Mental Images • Ageia • Icera

Вывод

Ноутбуки, укомплектованные графикой NVIDIA GeForce 810M будут наиболее интересны для тех, кто хочет получить недорогое решение, позволяющее комфортно работать с офисными приложениями, пользоваться интернет-браузерами, а также играть в нетребовательные игры или же запускать современные игровые программы на низких настройках уровня детализации.

Данный чип обладает собственными плюсами, такими как невысокое потребление энергии и низкое выделение тепла, что позволяет использовать его даже с пассивным охлаждением. Если же вы планируете получать удовольствие от современных игр с качественной графикой, то стоит воздержаться от приобретения техники, базирующейся на этом чипе, поскольку его производительности будет явно недостаточно.

Сравнение Nvidia GeForce 710m

При этом связь между 710-й и 540-й моделями намного сильнее, чем может показаться на первый взгляд. С одной стороны, видеокарта GeForce 710m выпущена только в 2013-м году, однако де-факто это модифицированная GeForce GT 540m, которая в свою очередь начинает историю еще с далекой модели GT 435m, представленной в начале осени 2010 года и работающей на архитектуре Fermi. Да, да, 710-я также является представителем этой архитектуры, архитектуры прошлого поколения. Но это вполне нормально, учитывая уже вышеупомянутую бюджетность устройства. Пожалуй, что для NVIDIA GeForce 710m сравнение следует проводить с ее предшественницей и одной из лучших средних видеокарт прошлых лет в лице GeForce GT 540m.

Обе видеокарты имеют одинаковое число потоковых процессоров — 96, однако частота чипа выше у 710-й модели — 800 МГц против 672-х МГц. Частота памяти в обоих случаях идентична и составляет 900 МГц, но при этом 540-я модель работает немного быстрее. Почему? Все дело в 128-битной шине памяти против 64-битной у GeForce 710m, которая обеспечивает видимый даже на глаз прирост скорости работы. Тем более, GT 540m работает с памятью GDDR5, в то время, как 710m поддерживает только лишь GDDR3. Надо отметить, что эффективная частота последней примерно вдвое ниже, чем у GDDR 5. Осталось сказать только о техпроцессе. Модель 710m изготавливается по 29 нм нормам, тогда как 540m достался 40 нм. Это позволило последней повысить рабочую частоту чипа и понизить потребление им энергии. Как видно, производительность NVIDIA GeForce 710m во многом оставляет желать лучшего, и супер мощной эту карту не назовешь, однако, учитывая свою бюджетность, она вполне способна составить хорошую конкуренцию многим современным видеокартам.

NVIDIA против AMD [Сравнение графических процессоров Ultimate 2021]

2010-е были не лучшим временем для AMD, это точно.

Помимо борьбы с процессорами серии FX, которые на годы отставали от продаж Intel, у AMD также были проблемы с конкуренцией с Nvidia на рынке графических процессоров. «Зеленая команда» доминировала в сегменте high-end, а AMD могла угнаться только в сегменте low-end и mid-range.

AMD вернулась только в 2017 году, начав с выпуска своих долгожданных процессоров Ryzen, которые сейчас очень популярны для игровых сборок.

В 2019 году AMD выпустила свои 7-нм графические процессоры на основе RDNA, на смену которым теперь придут новые модели RDNA2.

В этом руководстве мы увидим, насколько хорошо AMD удастся конкурировать с Nvidia в 2021 году и, в конечном итоге, с , какая компания предлагает лучшие игровые графические процессоры на данный момент. .

Цена и производительность

Естественно, главный вопрос при обсуждении GPU — это производительность . Как он оценивается в тестах и ​​с какой производительностью может работать в разных разрешениях?

Что ж, невозможно делать обобщения по этому поводу, поскольку производительность, очевидно, сильно варьируется в зависимости от модели, которую вы получаете, и денег, которые вы готовы потратить на графический процессор.

Бюджетные графические процессоры AMD почти всегда превосходили все, что Nvidia могла предложить по той же цене. На данный момент, однако, при сравнении последних бюджетных предложений от обеих компаний, Nvidia немного опережает. По иронии судьбы, некоторые из старых видеокарт AMD RX 500 на базе Polaris по-прежнему являются лучшим выбором, если вы скупаете гроши, поскольку они предлагают хорошее соотношение цены и качества.

Что касается Navi, то RX 5500 XT немного разочаровал. Варианты карты 4 ГБ (169 долларов) и 8 ГБ (199 долларов) были примерно равны с GTX 1650 Super от Nvidia (159 долларов) и едва ли могли приблизиться к GTX 1660 Super (229 долларов), что в конечном итоге сделало RX 5500 XT. очень непривлекательная карта для тех, кто хочет получить лучшее соотношение цены и качества в этом ценовом диапазоне.

Однако, поскольку бюджетные модели RTX 3000 и RX 6000 последнего поколения еще не вышли, сейчас не идеальное время для создания бюджетного игрового ПК , особенно если вы хотите, чтобы он был немного более ориентированным на будущее.

Между тем, в среднего класса конкуренция была немного более жесткой, и более мощные графические процессоры AMD на основе RDNA могли более чем выдержать конкуренцию как с GTX, так и с RTX картами, которые Nvidia предлагает в настоящий момент.

RX 5600 XT (279 долларов) показал себя значительно лучше, чем GTX 1660 Ti с аналогичной ценой (279 долларов), при этом не отставая от оригинальной RTX 2060 (349 долларов).Тем не менее, обновленная RTX 2060 Super (399 долларов) имела небольшое преимущество, к тому же у нее также была трассировка лучей. В свою очередь, RX 5700 XT (399 долларов) оставался отличным выбором в этом диапазоне, чтобы конкурировать с заметно более дорогим RTX 2070 Super (499 долларов).

Тем не менее, новый RTX 3060 Ti (399 долларов США) выбивает их всех из воды, поскольку он предлагает производительность, сопоставимую с высокопроизводительными моделями последнего поколения, такими как RTX 2080 Super. Пока AMD не представит RX 6700 XT или что-то еще, что может конкурировать в вышеупомянутой ценовой категории, RTX 3060 Ti останется лучшей картой среднего класса на рынке.

Когда дело доходит до high-end , это была та же старая история — Nvidia в значительной степени была монополистом здесь, поскольку их RTX 2070 Super, RTX 2080 Super и RTX 2080 Ti доминировали на рынке. Хотя RX 5700 XT мог конкурировать с RTX 2070 Super и предлагал очень хорошее соотношение цены и качества, у AMD не было ничего, что могло бы бросить вызов флагманским картам Nvidia.

Однако все изменилось.

Новая серия AMD RX 6000 оказалась более чем способной превзойти Nvidia в топовой модели . RX 6800 (579 долларов) превосходит RTX 3070 (499 долларов) с заметным отрывом в большинстве игр, что потенциально оправдывает немного более высокую цену.

Между тем, RX 6800 XT (649 долларов) обычно идет в ногу с более дорогим RTX 3080 (699 долларов), хотя Nvidia здесь немного впереди. Графический процессор AMD якобы предлагает лучшее соотношение цены и качества, но если вы стремитесь к высокопроизводительному графическому процессору в этом ценовом диапазоне, скорее всего, разница в 50 долларов не будет иметь большого значения.

Наконец, у нас есть лучших из лучших : RX 6900 XT (999 долларов США) и RX 3090 (1499 долларов США), оба из которых являются очень нишевыми продуктами и вряд ли понравятся более широкой аудитории.

RX 6900 XT немного опережает RTX 3080 с точки зрения производительности, но со значительной ценой. Чрезмерно дорогой RTX 3090 с его колоссальными 24 ГБ памяти GDDR6X будет более привлекательным для профессиональных пользователей , а не для геймеров.

Теперь имейте в виду, что мы использовали цены MSRP и общую производительность для справки, комментируя вышеупомянутые графические процессоры. Производительность неизбежно будет варьироваться от игры к игре, а цены также будут зависеть от модели, а также от рыночных условий.

Если вы хотите купить новую видеокарту прямо сейчас, возможно, вам стоит ознакомиться с нашей подборкой лучших видеокарт 2021 года . Обратите внимание, что мы делаем все возможное, чтобы наши руководства по покупке были актуальными, поэтому, если вы заметите устаревшую информацию, это означает, что статья, скорее всего, будет обновлена ​​в ближайшем будущем.

Трассировка лучей в реальном времени — это того стоит?

Самой продаваемой новой функцией графических процессоров Turing 2018 года была их возможность трассировки лучей в реальном времени . Итак, что такое трассировка лучей в реальном времени и стоит ли она того в 2021 году?

Как следует из названия, с помощью трассировки лучей в реальном времени игровое освещение может быть визуализировано намного более реалистично, поскольку графический процессор отслеживает пути виртуальных лучей света и, таким образом, более точно имитирует способ их взаимодействия с объектами в окружающей среде.Естественно, преимущества трассировки лучей наиболее заметны, когда вокруг много отражающих поверхностей.

В течение последних двух лет трассировка лучей была эксклюзивной функцией Nvidia, доступной только в их графических процессорах RTX, хотя AMD теперь представила поддержку трассировки лучей в своих последних моделях RX 6000.

Теперь нельзя отрицать, что трассировка лучей — важный шаг вперед, когда дело доходит до продолжающегося десятилетиями поиска фотореалистичной графики . Но действительно ли это так важно на данный момент?

Ну, есть несколько факторов, тормозящих шумиху вокруг трассировки лучей, и это следующие:

Требователен к оборудованию .При включении трассировка лучей может значительно снизить производительность, иногда полностью сокращая FPS вдвое. Это снижение производительности наиболее заметно при использовании более слабых графических процессоров, а также варьируется от игры к игре.

Преимущества не всегда очевидны . Конечно, технические демонстрации и сегменты, предназначенные для демонстрации трассировки лучей, будут выглядеть потрясающе с включенной этой функцией, но когда вокруг нет отражающих поверхностей, трассировка лучей практически не принесет заметных улучшений с точки зрения визуальных эффектов.

Не все игры поддерживают его . По состоянию на 2021 год больше игр поддерживают трассировку лучей, чем раньше, но это все еще далеко от универсальной функции, даже когда речь идет о крупных играх AAA.

Стоит отметить, что графические процессоры Nvidia по-прежнему имеют преимущество, когда речь идет о производительности трассировки лучей , особенно в играх, поддерживающих DLSS. Итак, если вы действительно заботитесь о трассировке лучей, Nvidia, вероятно, будет лучшим выбором, хотя новые карты RX 6000 превосходны с точки зрения общей производительности и стоимости в игре.

Трассировка лучей

определенно становится все более популярной, учитывая, что с ней совместимы как PlayStation 5, так и Xbox Series X. Но в любом случае, как мы упоминали выше, это все еще далеко от мейнстрима.

VRR — AMD FreeSync против Nvidia G-Sync

В то время как V-Sync может быть достаточно хорошим для мониторов с частотой 60 Гц, он просто неприменим для мониторов с высокой частотой обновления, например 120 Гц, 144 Гц или 240 Гц.

Это связано с тем, что V-Sync предотвращает разрыв экрана за счет ограничения количества кадров, выводимых графическим процессором, тем самым гарантируя, что частота кадров и частота обновления монитора никогда не будут рассинхронизированы.Тем не менее, у него есть свои недостатки, такие как заикание и задержка ввода .

Излишне говорить, что если вы собираетесь получить монитор с высокой частотой обновления, он неизбежно будет поставляться с одной из двух технологий: AMD FreeSync или Nvidia G-Sync.

По своей сути, эти технологии работают схожим образом — они обе используют оборудование, чтобы гарантировать, что частота обновления монитора всегда такая же, как и частота кадров. Это предотвращает рассинхронизацию двух устройств независимо от того, насколько сильно может колебаться частота кадров, тем самым устраняя разрыв экрана без каких-либо заиканий или задержек ввода.

Однако у всего есть обратная сторона.

Мониторы

Nvidia G-Sync, как правило, дороже по ряду причин. Во-первых, Nvidia осуществляет жесткий контроль качества , и все мониторы G-Sync должны соответствовать их стандартам, прежде чем будут утверждены. Более того, OEM-производители должны платить лицензионные сборы за использование G-Sync, и они должны покупать модули масштабирования непосредственно у Nvidia, поскольку они единственные, кто их производит.

Модуль масштабирования — это аппаратное обеспечение, встроенное в монитор, которое делает возможным VRR.В то время как Nvidia, по сути, имеет монополию на масштабирующие устройства G-Sync, AMD позволяет OEM-производителям использовать сторонние модули масштабирования и , они не требуют от них оплаты лицензионных сборов за использование технологии.

В результате FreeSync намного более популярен и легко доступен в более дешевых мониторах, но его реализация не всегда безупречна, и некоторые мониторы будут работать только в определенном диапазоне…………………………………………………………………………………………………………………………………………………………………………………………………………………………

С другой стороны, сейчас существует множество мониторов, совместимых с G-Sync i.е. мониторы, которые не используют модули масштабирования Nvidia и не прошли процесс тестирования, но по-прежнему совместимы с G-Sync. Однако им не хватает некоторых функций, которые вы получили бы с сертифицированным дисплеем G-Sync, таких как сверхмалое размытие при движении, разгон или переменный овердрайв.

Совместимость также было большой проблемой в прошлом, поскольку FreeSync работал только с графическими процессорами AMD, а G-Sync работал только с графическими процессорами Nvidia. Но ситуация уже не такая черно-белая. Например, графические процессоры Nvidia теперь работают с мониторами FreeSync.Графические процессоры AMD еще не совместимы с G-Sync, но это также скоро изменится.

В конце концов, обе эти технологии выполнят свою работу, но FreeSync, очевидно, является бюджетным выбором, а G-Sync — премиальным . Фирменный характер G-Sync по-прежнему делает его довольно дорогим, но Nvidia постепенно переходит к более либеральному подходу. Итак, правда, кто знает, что может произойти в будущем.

Заключение

Итак, учитывая все обстоятельства, какая компания в настоящее время предлагает лучшие графические процессоры, Nvidia или AMD?

Ответ: ни .

Почему?

Ну, просто потому, что невозможно делать обобщения, не сравнивая конкретные модели графических процессоров. Обе компании предлагают разные решения по разным ценам , которые могут удовлетворить требования и бюджетные ограничения широкого круга клиентов. К тому же ситуация может все время кардинально меняться.

Competition определенно намного лучше, чем за последние несколько лет, в этом нет сомнений. Раньше AMD была окончательным выбором для бюджетных и средних сборок, в то время как Nvidia имела монополию на high-end.Теперь все меняется, поскольку Nvidia предлагает больше конкурентов в более низких ценовых диапазонах, в то время как AMD, наконец, берет Nvidia на high-end.

В целом, сейчас отношения между ними довольно равные. В конечном итоге, чем больше AMD удастся сократить разрыв и обеспечить адекватную конкуренцию во всем ценовом диапазоне, тем лучше будет для кошельков каждого потребителя.

Сравнение графических процессоров Nvidia

: лучшая видеокарта для вашей сборки 2020

3D Insider поддерживается рекламой и зарабатывает деньги за счет кликов, комиссионных от продаж и другими способами.

Когда дело доходит до видеокарт, существует множество вариантов, и если вы создаете систему, это может немного сбить с толку. Ситуация с графическими процессорами кардинально изменилась с выходом на рынок серии RTX 20 от Nvidia, первых карт, поддерживающих трассировку лучей. Что касается массового потребления, то серия GTX Turing 16 также встряхивает рынок.

Если вы создаете игровую систему в 2020 году, это определенно лучшее время для этого, поскольку у вас действительно много вариантов.Однако помните, что лучшая видеокарта для вашей сборки обязательно не самая мощная и самая дорогая.

В сцене с графическим процессором Nvidia доступно множество различных карт. Конечно, у вас есть высокопроизводительные карты, но вы также получаете недорогие и бюджетные варианты, которые дадут вам приличную производительность, которая могла бы удовлетворить ваши игровые потребности.

Давайте взглянем на эти видеокарты и посмотрим, какая из них лучше всего подходит для ваших игровых потребностей и сборки.Независимо от того, хотите ли вы продвинуть 4K или VR или максимизировать свой FPS для соревновательных игр, для вас определенно найдется графический процессор Nvidia.

RTX 20 Series

Серия RTX от Nvidia — самая мощная линейка потребительских графических процессоров, доступных на рынке. Это определенно лучшее, что можно получить, если вы собираете игровой ПК в 2020 году. Это поколение видеокарт оснащено новейшей технологией, которая визуализирует освещение другим способом, называемым трассировкой лучей.

Вот спецификации каждой карты, чтобы вы имели представление о том, как они будут работать:

9024 Mhz 9024 9249 1,409 1,524 Mhz Тактовая частота с ускорением 9024 9024 операций в секунду Трлн
RTX 2060 RTX 2070 RTX 2080 RTX 2080 Ti
Ядра CUDA 1,920 2,304 2,944 4,352
Базовые часы 1,365 МГц 1,30246 1,680 МГц 1,620 МГц 1,710 МГц 1,545 МГц
Объем памяти 6 ГБ 8 ГБ 8 ГБ 11 ГБ GDDR6 GDDR6 GDDR6 GDDR6
Память y Скорость 14 Гбит / с 14 Гбит / с 14 Гбит / с 14 Гбит / с
Память
Пропускная способность
336 ГБ / с 448 ГБ / с ГБ 6246 ГБ / с
Ширина шины 192-бит 256-бит 256-бит 352-бит
Мощность графического процессора
(TDP)
160 Вт 215 Вт 250 Вт
Лучи трассировки лучей
в секунду
5 миллиардов 6 миллиардов 8 миллиардов 10 миллиардов

11

42 трлн 57 трлн 76 трлн
Розничная цена 349 долл. США
КОНТРОЛЬНАЯ ЦЕНА
529 долл. США
КОНТРОЛЬНАЯ ЦЕНА
$ 739
КОНТРОЛЬНАЯ ЦЕНА
$ 1299
КОНТРОЛЬНАЯ ЦЕНА

Высокопроизводительные карты

Это одни из самых эффективных видеокарт на рынке сегодня.По сравнению с предыдущим поколением, Nvidia 10-й серии, они определенно на шаг впереди. Они также значительно лучше справляются с трассировкой лучей по сравнению с их аналогами последнего поколения. Если посмотреть на чистую производительность, они обычно на 20–30 процентов быстрее, чем предыдущее поколение.

Трассировка лучей и DLSS

Используя архитектуру Тьюринга в качестве основы, одной из наиболее важных функций этих новых графических карт является возможность трассировки лучей. Это метод рендеринга света, который дает невероятно реалистичные световые эффекты.По сути, это «отслеживает» путь света и моделирует его поведение при попадании на определенные виртуальные объекты.

Трассировка лучей обеспечивает реалистичные тени и отражения, а также лучшее рассеяние. Этот метод значительно улучшает внешний вид игровой графики, но за счет вычислительной мощности. Серия RTX 20 определенно является началом, и вы увидите гораздо больше улучшений в более поздних технологиях.

Еще одна интригующая особенность карт серии 20 — DLSS или суперсэмплинг глубокого обучения.Это звучит немного грубо, но это означает, что они эффективно используют ИИ для имитации рендеринга с более высоким разрешением, не требуя большей вычислительной мощности. Эта технология даст вам лучшую производительность в играх при более высоких разрешениях, таких как 4K, без необходимости в большом количестве оборудования. Даже карта RTX 2060 начального уровня обеспечит вам приличную частоту кадров 1440p или 4K.

Производительность игры и контрольные показатели

9024 9024 9024 9024 9024
RTX 2060 RTX 2070 RTX 2080 RTX 2080 Ti
125 142 165
Среднее значение 1440p
FPS
78 91 106 126 46
9024 9024 9024 9024 9024 9024 9024 9024 9024 77

Super Family

Серия RTX 20 Super — это разблокированные версии своих обычных аналогов, дающие им больше ядер и более высокие тактовые частоты.Производительность этих карт может быть на 25% выше, чем у оригинальных карт RTX 20.

549 246
Проверить цену $ 749
ПРОВЕРИТЬ ЦЕНУ
RTX 2060 Super RTX 2070 Super RTX 2080 Super
CUDA Cores 2,176 9024 9024 9024 9024 9024 9024 9024 9024 Тактовая частота 1,470 МГц 1605 МГц 1,650 МГц
Тактовая частота с ускорением 1,650 МГц 1,770 МГц 1,815 МГц Размер ГБ 8 Гб5 Гбит / с
Память
Пропускная способность
448 ГБ / с 448 ГБ / с 496 ГБ / с
Ширина шины 256 бит 256-бит 256 -бит
Мощность графического процессора
(TDP)
175 Вт 215 Вт 250 Вт
Лучи трассировки лучей
в секунду
6 миллиардов 7 миллиардов
Операции RTX
в секунду
41 триллион 52 триллион 63 триллион
Розничная цена $ 399
ПРОВЕРИТЬ ЦЕНУ

Производительность игры и тесты

14406 Среднее значение
RTX 2060 Super 9001 2 RTX 2070 Super RTX 2080 Super
Среднее значение 1080p
FPS
119 132 150
98 113
Среднее значение 4K FPS 50 58 68

Titan RTX

Серия Titan от Nvidia — это лучшие версии своих графических процессоров.В данном случае это самая быстрая видеокарта для ПК, созданная с использованием аналогичной технологии, но с максимальной эффективностью. Вы определенно можете играть в новейшие игры с этой видеокартой, но ее чистая мощность может быть отлично использована в машинном или глубоком обучении и рендеринге 3D-графики.

с Ширина шины
Titan RTX
Ядра CUDA 4,608
Базовые часы 1350 МГц 9024 9024 9024 9024 9024 9024 9024 9024 9024 9024 Размер памяти 24 ГБ
Тип памяти GDDR6
Скорость памяти 14 Гбит / с
Пропускная способность памяти 67249 384 бит
Мощность графического процессора (TDP) 280 Вт
Лучи трассировки лучей
в секунду
11 миллиардов

операций RTX

84 трлн
Розничная цена 9 0249 $ 2449
ПРОВЕРИТЬ ЦЕНУ

Производительность игры и контрольные показатели

Titan RTX
Среднее значение 1080p FPS 9006 142 130
Среднее значение 4K FPS 78

GTX 16 Series

Серия GTX 16 от Nvidia выпущена одновременно с серией RTX 20 и больше предназначена для покрытия начального уровня и средний рынок.Эти графические процессоры также основаны на архитектуре Тьюринга, но без ядер DLSS и трассировки лучей на их более дорогих аналогах в диапазоне 20-й серии.

Вот спецификации каждого графического процессора серии GTX 16, чтобы вы имели представление о том, как они будут работать:

9024 9024 9024 9024 9024 9024 900 МГц МГц GDDR5
GTX 1650 GTX 1660 GTX 1660 Ti
Ядра CUDA 896 1,408 1,536
Базовая частота 1,485 МГц 1,530 МГц 900 МГц 1,770 МГц
Объем памяти 4 ГБ 6 ГБ 12 ГБ
Тип памяти GDDR5 GD249 GD249 Скорость 8 Гбит / с 8 Гбит / с 12 Гбит / с
Память
Диапазон ширина
128 ГБ / с 192 ГБ / с 288 ГБ / с
Ширина шины 128-бит 192-бит 192-бит
Питание графического процессора
(TDP)
75 Вт 120 Вт 120 Вт
Розничная цена $ 169
КОНТРОЛЬНАЯ ЦЕНА
$ 219
ПОЛНАЯ ЦЕНА 9

Производительность

Карты серии GTX 16, хотя и сделаны с той же архитектурой, обычно не так мощны, как их аналоги серии RTX 20.Кроме того, поскольку эта серия ориентирована на недорогой бюджетный сегмент, в ней нет высокопроизводительных опций, таких как модели GTX 1670 и GTX 1680. Однако он более мощный, чем предыдущее поколение.

Таким образом, как и в случае с большинством карт Nvidia, это справедливо для серии 16, где GTX 1660 Ti имеет производительность, близкую к GTX 1070.

Производительность в игре и тесты

65249
GTX 1650 GTX 1660 GTX 1660 Ti
Среднее значение 1080p
FPS
59 88 100
FPS 73
Среднее значение 4K FPS 25 38 43

Super Family

Подобно серии RTX 20, серия GTX 16 поставляется с собственными разблокированными версиями Super.Они до 20% быстрее, чем их оригинальные аналоги, и имеют до 50% большую производительность, чем их аналоги предыдущего поколения. Так, например, GTX 1660 Super в 1,5 раза быстрее, чем GTX 1060.

Повышенная производительность дает вам лучшую производительность в самых популярных играх и позволяет вам соревноваться, увеличивая частоту кадров до 144 кадров в секунду для более плавной и точной игры.

9024 9024 9024 9024 M 1,5 90 242
GTX 1650 Super GTX 1660 Super
Ядра CUDA 1,280 1,408 1,280 1,408
Тактовая частота с ускорением 1725 МГц 1785 МГц
Объем памяти 4 ГБ 6 ГБ
G0249
9D Скорость памяти 12 Гбит / с 14 Гбит / с
Память
Пропускная способность
192 ГБ / с 336 ГБ / с
Ширина шины 128- бит бит
Мощность графического процессора
(TDP)
100 Вт 125 Вт
Розничная цена $ 169
КОНТРОЛЬНАЯ ЦЕНА
$ 249
КОНТРОЛЬНАЯ ЦЕНА

Производительность игры и тесты

900

Super

Среднее значение 1080p
FPS
77 94
Среднее 1440p
FPS
56 69

GTX 10 Series

Серия GTX 10 на поколение отстает от серий GTX 16 и RTX 20, работающих на архитектуре Тьюринга.Эта серия основана на их микроархитектуре Pascal, которая раздвигает границы возможностей этой технологии.

Однако, поскольку это поколение отстает и имеет более старую архитектуру чипа, ему не хватает производительности по сравнению с последними картами Turing.

Вот спецификации каждой карты серии GTX 10:

9024 ГБ 8 Гбит / с 11249 192 ГБ / с Цена 9024
GTX 1060 GTX 1070 GTX 1070 Ti GTX 1080 GTX 1080 Ti
Ядра CUDA 1,280 1,920 2,432 2,560 3,584
Базовая частота 1,506 9024 Mhz6 9024 9024 9024 Mhz 6 1,480 МГц
Тактовая частота с ускорением 1,708 МГц 1,683 МГц 1,683 МГц 1,733 МГц 1,582 МГц
9024 ГБ 824 ГБ Размер 8 ГБ 11 ГБ
Тип памяти GDDR5 9024 9 GDDR5 GDDR5 GDDR5X GDDR5X
Скорость памяти 8 Гбит / с 8 Гбит / с
256 ГБ / с 256 ГБ / с 320 ГБ / с 484 ГБ / с
Ширина шины 192-бит 256-бит 256- бит 256 бит 352 бит
Мощность графического процессора
(TDP)
120 Вт 150 Вт 180 Вт 180 Вт 250 Вт
259 $
КОНТРОЛЬНАЯ ЦЕНА
$ 573
КОНТРОЛЬНАЯ ЦЕНА
$ 549
КОНТРОЛЬНАЯ ЦЕНА
489 $
КОНТРОЛЬНАЯ ЦЕНА
$ 830 332 КОНТРОЛЬНАЯ ЦЕНА

Характеристики

Между серией GTX 9 и серией GTX 10 наблюдается значительный скачок производительности, что дает геймерам дополнительную возможность наслаждаться своими любимыми играми в VR или 4K.Это первая серия графических процессоров Nvidia, которые легко справляются с обеими этими задачами.

Драйверы видеокарты также усовершенствованы, чтобы обеспечить оптимальную производительность при запуске новой игры. Сегодня мы принимаем это как должное, но все эти функции были представлены вместе с серией GTX 10.

Производительность игры и контрольные показатели

в среднем 1080p
кадр / с
GTX 1060 GTX 1070 GTX 1070 Ti GTX 1080 GTX 1080 Ti
69 96 105 113 133
Среднее значение 1440p
кадр / с
50 70 77 83
4K
FPS
29 41 45 49 60

Titan X

Серия GTX 10 поставляется с собственным графическим процессором Titan, который обладает большой мощностью в аналогичной форме фактор.Традиционно карты Titan хороши для игр, но более дорогих версий, карт XX80, должно хватить для большинства игр. В чем преимущества этих типов видеокарт — это машинное обучение и другие вычислительные задачи графического процессора.

9024 M 9024 9024 9024 9024 9024 9024 GD2 GD6 GD Скорость 902 900 TDP)
Titan X Titan Xp
Ядра CUDA 3,072 3,840
Тактовая частота с ускорением 1,075 МГц 1,582 МГц
Объем памяти 12 ГБ 12 ГБ
Тип памяти 7 Гбит / с 11.4 Гбит / с
Память
Пропускная способность
336,5 ГБ / с 547,7 ГБ / с
Ширина шины 384-бит 384-битный
250 Вт 250 Вт
Розничная цена 1175 долларов США
КОНТРОЛЬНАЯ ЦЕНА
1899 долларов США
ПРОВЕРИТЬ ЦЕНУ
Лучшая видеокарта от Nvidia 2 для вашего игрового ПК не обязательно будет иметь самую высокую цену.Он также не самый производительный. Однако мы знаем, что качество и производительность действительно прямо пропорциональны стоимости карты, но в зависимости от вашей сборки это может быть не так.

Давайте посмотрим, какой графический процессор подойдет вашим игровым потребностям:

Лучший результат

ASUS ROG STRIX GeForce RTX 2080 Ti

Розничная цена: 1299 долларов

Подойдет любой RTX 2080 Ti. На 2020 год это, безусловно, самый последний и самый мощный из доступных потребительских настольных графических процессоров.Архитектура Nvidia Turing позволяет упаковать эту карту дополнительными ядрами CUDA для обработки графики, ядрами Tensor для ускорения глубокого обучения, такими как DLSS, и ядрами RT для трассировки лучей.

Эта карта — отличный выбор, если вы планируете создать систему, которая позволит вам играть в игры с разрешением 4K, 144 FPS, с активированными HDR и G-Sync на вашем дисплее. Вам понадобится самая быстрая видеокарта, и это, безусловно, отвечает вашим требованиям.

Самое приятное в получении этой карты — это то, что последние игры и те, которые находятся в разработке, стремятся использовать ее возможности, особенно с точки зрения трассировки лучей для всей серии RTX 20.Таким образом, вы определенно можете ожидать гораздо больше игр, в которых будут использоваться все функции RTX 2080 Ti.

Лучшие высокопроизводительные графические процессоры Nvidia

MSI GAMING GeForce RTX 2080 Super

Розничная цена: 749 $

RTX 2080 Super — одна из лучших видеокарт на рынке, и она может предложить вам лучшее в С точки зрения пиковой производительности и цены, учитывая RTX 2080 Ti, значительно дороже. Это мощная карта, которая обеспечит отличную производительность во многих новейших играх.

Поддержка трассировки лучей среди разработчиков определенно возрастает, и это одна из карт, которую нужно выбрать, если вы хотите в полной мере использовать преимущества технологии. Он также обеспечит вам исключительную производительность в играх 4K и даже лучшее разрешение 1440p (QHD) по более доступной цене по сравнению с RTX 2080 Ti.

GIGABYTE WINDFORCE GeForce RTX 2080

Розничная цена: 739 долларов

Если посмотреть на цену, RTX 2080 Super с большей производительностью определенно является лучшим вариантом.Учитывая, что версия Super этой карты более мощная с приличным скачком производительности, это не то, что мы бы рекомендовали сразу.

Однако, если у вас нет доступа к RTX 2080 Super, это достойная альтернатива. Если вы также можете получить отличную сделку с этим графическим процессором на вторичном рынке, то непременно возьмите его, чтобы обновить свой игровой ПК.

Лучшие графические процессоры Nvidia среднего уровня

MSI GAMING TWIN FROZR GeForce RTX 2070 Super

Розничная цена: $ 549

RTX 2070 Super является одним из лучших пикапов среднего уровня для вашего игрового ПК в 2020 году. производительность премиум-класса по относительно доступной цене.Он способен обеспечивать производительность, аналогичную RTX 2080, без дополнительных затрат.

Даже если у вас ограниченный бюджет, это все равно убедительная покупка, потому что она даст вам мощность, необходимую для игры в ваши любимые игры. Он также поддерживает трассировку лучей, поэтому вы сможете наслаждаться графикой следующего уровня, не нарушая при этом денег.

Если вы не ищете игр 4K сверхвысокого качества, RTX 2070 Super будет достаточно.Это лучший графический процессор для невероятной производительности 1440p (QHD) при самых высоких настройках графики и самой высокой частоте кадров.

EVGA SUPER XC GAMING GeForce RTX 2070

Розничная цена: 529 долларов

Выпуск семейства RTX 20 Super делает выбор RTX 2070 несколько странным. С RTX 2070 Super вы, несомненно, сможете получить превосходную скорость и производительность по сравнению с его оригинальным аналогом. Это должен быть отличный выбор, если вы не можете достать RTX 2070 Super или ищете предложения на рынке подержанных.

Если это единственный графический процессор, который вы можете получить, он по-прежнему будет предлагать вам отличную производительность и позволит вам играть в ваши любимые игры с высоким качеством графики и более высокой частотой кадров.

ZOTAC GAMING ICESTORM 2.0 GeForce RTX 2060 Super

Розничная цена: 399 долларов

Несмотря на то, что RTX 2060 Super относится к категории среднего уровня, вы можете легко считать это бюджетным вариантом. Вероятно, это один из лучших вариантов по соотношению цены и качества, который вы можете иметь при создании достойного игрового ПК на 2020 год.Его производительность почти равна производительности RTX 2070, но по гораздо доступной цене.

Если вы хотите играть в игры с разрешением 1080p (FHD) или 1440p (QHD) на мониторе 144 Гц, то это, несомненно, графический процессор Nvidia. Он легко справляется с качеством графики от высокого до сверхвысокого, поэтому вы можете играть в новейшие игры и иметь запас производительности для будущих выпусков.

Несмотря на то, что она всего на поколение опережает GTX 1080, она примерно на 10% быстрее, так что вы наверняка окупите свои деньги с этой картой.Вдобавок ко всему, он также поддерживает трассировку лучей и DLSS, так что вы можете довести это до предела и при этом получить оптимальные результаты.

Лучшие бюджетные графические процессоры Nvidia

MSI GAMING VENTUS XS OC GeForce GTX 1660 Ti

Розничная цена: 275 долларов США

Серия GTX 16 от Nvidia предназначена для массового бюджетного рынка. Оснащенная шейдерами Тьюринга, но без возможностей трассировки лучей и DLSS серии RTX 20, GTX 1660 Ti находится чуть ниже RTX 2060 с точки зрения производительности и цены.

Если вам не нужны эти функции, но вы ищете некоторую чистую мощность и производительность, чтобы играть в свои любимые игры, эту карту определенно стоит рассмотреть. Это не та карта, которую нужно получить, если вы ищете первоклассный игровой процесс в 4K или VR, но если вас устраивает высокое качество графики, высокая частота кадров и игры 1080p (FHD), это отличный выбор.

GTX 1660 Ti может легко справиться со всеми вашими любимыми киберспортивными играми из CS: Go, Dota 2, LoL, Overwatch и другими популярными играми.

ASUS ROG STRIX GeForce GTX 1660 Super

Розничная цена: 249 долларов

Одна из особенностей GTX 1660 Super — это соотношение цены и производительности. Это, безусловно, карта с одним из самых высоких показателей в этой категории. Он работает лучше, чем GTX 1660, и очень близок к GTX 1660 Ti.

Это карта, которая подарит вам отличные игровые возможности 1080p (FHD), которые могут легко достигать более 60 кадров в секунду при средних или высоких настройках графики в большинстве игр Triple-A.Он также способен обеспечить более плавную игровую производительность в большинстве киберспортивных игр, таких как Fortnite, CS: Go, Dota 2, Overwatch и многих других играх.

Поскольку это не карта RTX, вы теряете функции трассировки лучей и DLSS, но если вы строите бюджетный ПК, который может работать с большинством текущих игр, GTX 1660 Super должно быть достаточно. Это определенно отличная видеокарта, доступная по цене, но обладающая мощностью для массового геймера.

Графические процессоры Nvidia, которые дают вам лучшее соотношение цены и качества

Nvidia разрабатывает множество графических процессоров, и для каждой серии они выпускают как минимум 4 или 5.Добавьте в микс линию Super, и вы получите от 8 до 10, и все они имеют широкий диапазон уровней производительности.

Мы просто не можем предоставить вам одну видеокарту и сказать вам, что это та, которая будет предлагать вам наибольшую ценность, но вместо этого мы собираемся разделить их на категории по разным ценам, предоставляя вам варианты в зависимости от вашего бюджета и требуемая производительность.

Бюджетный вариант с лучшим соотношением цены и качества

GTX 1660 Super
✔ Превосходная производительность 1080p
✔ Может повышать настройки графики до ультра
✔ Может соответствовать GTX 1660 Ti
✔ Превосходное соотношение цены и производительности
✔ Архитектура Тьюринга нового поколения от Nvidia
$ 249
КОНТРОЛЬНАЯ ЦЕНА

GTX 1660 Super, безусловно, наш лучший вариант среди всех вариантов начального уровня. бюджетный выбор.Если посмотреть на соотношение цены и производительности, это карта, которая принесет вам наибольшую отдачу от вложенных средств в этой категории.

Другое оборудование, которое вы будете сопровождать этот графический процессор в своей сборке, не сломает банк, предоставляя вам более доступную систему, которая выжмет максимальную производительность из вашей карты.

Оптимальный вариант для среднего уровня

✔ 108024 90p Игровой опыт 1440p
RTX 2060 Super
✔ Самая доступная карта трассировки лучей и DLSS
✔ Легко совпадает с RTX 2070 по производительности
✔ Поднимите до 144 кадров в секунду на большинстве киберспортивных игр
$ 399
КОНТРОЛЬНАЯ ЦЕНА

RTX 2060 Super — не обычная видеокарта начального уровня.Его можно классифицировать как один, поскольку он находится на низком уровне в серии RTX 20, но не обманывайтесь его обозначением, поскольку он обладает большой мощностью.

Он, безусловно, поднимается выше по соотношению цены и производительности, потому что он предлагает большую ценность по своей цене. Если вы хотите использовать трассировку лучей и DLSS, но не беспокоитесь о сверхвысоких настройках графики, это карта для вас.

Обычным геймерам наверняка понравится этот графический процессор, так как он обеспечивает плавную работу в большинстве игр AAA и обеспечивает высокую частоту кадров для всех соревновательных киберспортивных игр.

Лучшая высокопроизводительная опция

✔ Плавная производительность при разрешении 1440p
RTX 2070 Super
✔ Производительность приближается к ванильной RTX 2080
✔ Поставляется с выделенными ядрами трассировки лучей и DLSS
✔ Надежное качество изображения 4K при средних и высоких настройках
✔ Легкое управление играми VR
$ 549
ПРОВЕРИТЬ ЦЕНУ

Графическая карта RTX 20 вы сможете насладиться максимальным игровым процессом, не тратя много денег.Он не такой дорогой, как RTX 2080, но с легкостью может сравниться с ним по производительности. При разнице в цене около 200 долларов это определенно сумма, которую вы можете потратить на игровую установку в другом месте. Это карта, которая справится со всем, что вы на нее бросите, включая дисплеи с разрешением 4K и 144 Гц. Он даже может дать вам плавный опыт игры в виртуальной реальности, так что вы также можете получить для него качественную гарнитуру.

RTX 2070 Super определенно дороже, но если вы готовы потратить на несколько сотен больше, это то, что вы можете подумать о приобретении для своего игрового ПК.

Графическая карта, которая идеально подходит для вашей сборки 2020 года

Графический процессор Nvidia, который идеально подходит для вашего игрового ПК, не обязательно является самым дорогим или самым мощным. У разных пользователей разные потребности. Обычные геймеры могут быть удовлетворены производительностью 1080p 60 FPS, в то время как хардкорные игроки могут сбросить лишнюю сотню или две, чтобы они могли играть в 4K, 144 FPS при сверхвысоких настройках. Другим может даже понравиться такая массовая карта, как GTX 1660 Super.

Существует также другая ниша пользователей, которым требуется что-то немного отличное от их видеокарт, например создатели контента и графические дизайнеры.Независимо от ваших потребностей, определенно есть видеокарта, которая идеально подходит для ваших нужд.

Вам не обязательно тратить тонну, чтобы получить RTX 2080 Ti, если вы не увлекаетесь играми с интенсивной графикой или не рендерите видео регулярно. Суть в том, что до тех пор, пока конкретная видеокарта соответствует вашим потребностям и вашему бюджету, она идеально подходит для вашего ПК.

Последние мысли

Графика игры быстро меняется, и технологические достижения, кажется, происходят каждый год.Nvidia готова анонсировать свою 7-нм архитектуру, и это определенно снова изменит ситуацию.

Если вы чувствуете, что все еще можете запускать текущие игры с желаемыми настройками, возможно, вам пока не требуется обновление. Если вы планируете создать совершенно новый игровой ПК, это некоторые из наших рекомендаций, чтобы вы могли точно оценить свои игровые предпочтения и потребности.

графических процессоров на Compute Engine | Документация по Compute Engine | Google Cloud

Compute Engine предоставляет графические процессоры (GPU), которые вы можете добавьте к своей виртуальной машине (ВМ) экземпляры.Вы можете использовать эти графические процессоры для ускорения определенные рабочие нагрузки на ваших экземплярах, такие как машинное обучение и данные обработка.

Если у вас есть рабочие нагрузки с большим количеством графики, такие как 3D-визуализация, 3D-рендеринг или виртуальные приложения, вы можете создавать виртуальные рабочие станции, которые используют Технология NVIDIA® GRID®. Для получения информации о графических процессорах для интенсивной графики приложения, см. Графические процессоры для графических рабочих нагрузок.

В этом документе представлен обзор графических процессоров в Compute Engine. Информацию о работе с графическими процессорами можно найти на следующих ресурсах:

Попробуйте сами

Если вы новичок в Google Cloud, создайте учетную запись, чтобы оценить, как Compute Engine работает в реальном мире сценарии.Новые клиенты также получают 300 долларов в качестве бесплатных кредитов для запуска, тестирования и развертывать рабочие нагрузки.

Попробуйте Compute Engine бесплатно

Введение

Compute Engine предоставляет графические процессоры NVIDIA® для ваших экземпляров в режиме сквозной передачи, чтобы экземпляры виртуальных машин иметь прямой контроль над графическими процессорами и связанной с ними памятью.

Примечание. Экземпляры GPU не могут жить мигрировать и должен остановиться для проведения мероприятий по техническому обслуживанию хоста. Эти мероприятия по техническому обслуживанию обычно происходят раз в две недели. Случаи технического обслуживания также могут происходить чаще. когда необходимо. Для получения информации об обработке событий технического обслуживания прочтите Ограничения графического процессора.

Для вычислительных рабочих нагрузок доступны модели графических процессоров следующих стадий:

  • NVIDIA® A100: Общедоступно
  • NVIDIA® T4: nvidia-tesla-t4 : Общедоступно
  • NVIDIA® V100: nvidia-tesla-v100 : Общедоступно
  • NVIDIA® P100: nvidia-tesla-p100 : Общедоступно
  • NVIDIA® P4: nvidia-tesla-p4 : Общедоступно
  • NVIDIA® K80: nvidia-tesla-k80 : Общедоступно

Для графических рабочих нагрузок модели графических процессоров доступны в следующих стадиях:

  • Виртуальные рабочие станции NVIDIA® T4: nvidia-tesla-t4-vws : Общедоступные
  • Виртуальные рабочие станции NVIDIA® P100: nvidia-tesla-p100-vws : Общедоступные
  • Виртуальные рабочие станции NVIDIA® P4: nvidia-tesla-p4-vws : Общедоступные

Информацию о графических процессорах для виртуальных рабочих станций см. Графические процессоры для графических рабочих нагрузок.

Вы можете подключать графические процессоры только к инстансам с предопределенный или нестандартные типы машин. Графические процессоры не поддерживаются разделяемое ядро ​​или типы машин с оптимизацией памяти.

Вы также можете добавить локальные SSD к графическим процессорам. Для список поддержки локальных SSD по типам GPU и регионам, см. Доступность локальных SSD по регионам и зонам GPU.

Стоимость

Большинство устройств с графическим процессором получают скидки за длительное использование аналогично виртуальным ЦП. Почасовые и ежемесячные расценки на устройства с графическим процессором см. Страница цен на GPU.

Модели графических процессоров

Графические процессоры NVIDIA® A100

Для запуска графических процессоров NVIDIA® A100 необходимо использовать оптимизированный для ускорителя (A2) тип аппарата.

Каждый тип машины A2 имеет фиксированное количество графических процессоров, количество виртуальных ЦП и размер памяти.

Примечание. Чтобы просмотреть доступные регионы и зоны для графических процессоров в Compute Engine, см. Регионы и зоны доступности графических процессоров.
Модель графического процессора Тип машины графических процессоров Память графического процессора Доступные виртуальные ЦП Доступная память
NVIDIA® A100 A2-HighGPU-1G 1 графический процессор 40 ГБ HBM2 12 виртуальных ЦП 85 ГБ
A2-HighGPU-2G 2 графических процессора 80 ГБ HBM2 24 виртуальных ЦП 170 ГБ
A2-HighGPU-4G 4 графических процессора 160 ГБ HBM2 48 виртуальных ЦП 340 ГБ
A2-HighGPU-8G 8 графических процессоров 320 ГБ HBM2 96 виртуальных ЦП 680 ГБ
A2-мегагпу-16g 16 графических процессоров 640 ГБ HBM2 96 виртуальных ЦП 1360 ГБ

Другие доступные модели NVIDIA® GPU

виртуальных машин с меньшим количеством графических процессоров ограничено максимальным количеством виртуальных ЦП.В общем, большее число графических процессоров позволяет создавать экземпляры с большим количеством виртуальных ЦП и объем памяти.

Примечание. Чтобы просмотреть доступные регионы и зоны для графических процессоров в Compute Engine, см. Регионы и зоны доступности графических процессоров.
Модель графического процессора графических процессоров Память графического процессора Доступные виртуальные ЦП Доступная память
NVIDIA® T4 1 графический процессор 16 ГБ GDDR6 1-24 виртуальных ЦП 1 — 156 ГБ
2 графических процессора 32 ГБ GDDR6 1–48 виртуальных ЦП 1 — 312 ГБ
4 графических процессора 64 ГБ GDDR6 1–96 виртуальных ЦП 1 — 624 ГБ
NVIDIA® P4 1 графический процессор 8 ГБ GDDR5 1-24 виртуальных ЦП 1 — 156 ГБ
2 графических процессора 16 ГБ GDDR5 1–48 виртуальных ЦП 1 — 312 ГБ
4 графических процессора 32 ГБ GDDR5 1–96 виртуальных ЦП 1 — 624 ГБ
NVIDIA® V100 1 графический процессор 16 ГБ HBM2 1–12 виртуальных ЦП 1 — 78 ГБ
2 графических процессора 32 ГБ HBM2 1-24 виртуальных ЦП 1 — 156 ГБ
4 графических процессора 64 ГБ HBM2 1–48 виртуальных ЦП 1 — 312 ГБ
8 графических процессоров 128 ГБ HBM2 1–96 виртуальных ЦП 1 — 624 ГБ
NVIDIA® P100 1 графический процессор 16 ГБ HBM2 1–16 виртуальных ЦП 1 — 104 ГБ
2 графических процессора 32 ГБ HBM2 1–32 виртуальных ЦП 1 — 208 ГБ
4 графических процессора 64 ГБ HBM2

1–64 виртуальных ЦП
(us-east1-c, europe-west1-d, europe-west1-b)

1–96 виртуальных ЦП
(все зоны P100)

1-208 ГБ
(us-east1-c, europe-west1-d, europe-west1-b)

1 — 624 ГБ
(все зоны P100)

NVIDIA® K80 1 графический процессор 12 ГБ GDDR5 1-8 виртуальных ЦП 1 — 52 ГБ
2 графических процессора 24 ГБ GDDR5 1–16 виртуальных ЦП 1 — 104 ГБ
4 графических процессора 48 ГБ GDDR5 1–32 виртуальных ЦП 1 — 208 ГБ
8 графических процессоров 96 ГБ GDDR5 1–64 виртуальных ЦП

1 — 416 ГБ
(asia-east1-a и us-east1-d)

1 — 208 ГБ
(все зоны K80)

Примечание:
  • Более подробное описание зон см. Регионы и зоны.
  • Платы
  • NVIDIA® K80® содержат по два графических процессора каждая. Цена на K80 Графические процессоры создаются отдельными графическими процессорами, а не платой.

Графические процессоры NVIDIA® GRID® для графических рабочих нагрузок

Если у вас есть рабочие нагрузки с большим количеством графики, например 3D-визуализация, вы можете создавать виртуальные рабочие станции, использующие платформу NVIDIA® GRID®. Для получения дополнительной информации о NVIDIA® GRID® см. Обзор GRID.

Когда вы выбираете графический процессор для виртуальной рабочей станции, NVIDIA® GRID® лицензия добавлена ​​к вашей виртуальной машине.Для получения дополнительной информации о ценах см. Страница цен на GPU.

Чтобы настроить виртуальную рабочую станцию ​​NVIDIA® GRID®, вам необходимо создать виртуальную машину с включенной виртуальной рабочей станцией и установите драйвер GRID.

После создания виртуальной рабочей станции вы можете подключиться к ней с помощью удаленного настольный протокол, такой как Teradici® PCoIP или VMware® Horizon View.

Примечание. Чтобы просмотреть доступные регионы и зоны для виртуальных рабочих станций в Compute Engine, см. Регионы и зоны доступности графических процессоров.
Модель графического процессора графических процессоров Память графического процессора Доступные виртуальные ЦП Доступная память
Виртуальная рабочая станция NVIDIA® T4 1 графический процессор 16 ГБ GDDR6 1-24 виртуальных ЦП 1 — 156 ГБ
2 графических процессора 32 ГБ GDDR6 1–48 виртуальных ЦП 1 — 312 ГБ
4 графических процессора 64 ГБ GDDR6 1–96 виртуальных ЦП 1 — 624 ГБ
Виртуальная рабочая станция NVIDIA® P4 1 графический процессор 8 ГБ GDDR5 1–16 виртуальных ЦП 1 — 156 ГБ
2 графических процессора 16 ГБ GDDR5 1–48 виртуальных ЦП 1 — 312 ГБ
4 графических процессора 32 ГБ GDDR5 1–96 виртуальных ЦП 1 — 624 ГБ
Виртуальная рабочая станция NVIDIA® P100 1 графический процессор 16 ГБ HBM2 1–16 виртуальных ЦП 1 — 104 ГБ
2 графических процессора 32 ГБ HBM2 1–32 виртуальных ЦП 1 — 208 ГБ
4 графических процессора 64 ГБ HBM2

1–64 виртуальных ЦП
(us-east1-c, europe-west1-d, europe-west1-b)

1–96 виртуальных ЦП
(все зоны P100)

1-208 ГБ
(us-east1-c, europe-west1-d, europe-west1-b)

1 — 624 ГБ
(все зоны P100)

Пропускная способность сети и графические процессоры

Использование более высокой пропускной способности сети может улучшить производительность распределенных рабочие нагрузки.Для получения дополнительной информации см. Пропускная способность сети и графические процессоры.

GPU на вытесняемых инстансах

Вы можете добавить графические процессоры в свои вытесняемые экземпляры виртуальных машин по более низким ценам на графические процессоры. Графические процессоры прикрепленные к вытесняемым экземплярам, ​​работают как обычные графические процессоры, но сохраняются только для жизнь экземпляра. Вытесняемые экземпляры с графическими процессорами следуют тому же процесс упреждения как и все вытесняемые экземпляры.

Примечание: Если вы запрашиваете вытесняемую квоту графического процессора для NVIDIA® V100® Графические процессоры в обосновании запроса указывают, что запрос предназначен для вытесняемые графические процессоры.

Во время мероприятий обслуживания вытесняемые экземпляры с графическими процессорами вытесняются по умолчанию и не может быть перезапущен автоматически. Если вы хотите воссоздать свой экземпляров после того, как они были вытеснены, используйте группа управляемых экземпляров. Группы управляемых экземпляров воссоздают ваши экземпляры, если виртуальный ЦП, память и Ресурсы GPU доступны.

Если вы хотите получить предупреждение перед вытеснением вашего экземпляра или хотите настроить ваш экземпляр для автоматического перезапуска после события обслуживания, используйте невытесняемый экземпляр с графическим процессором.Для экземпляров без вытеснения с графическими процессорами, Google предоставляет предварительное уведомление за час до упреждения.

Compute Engine не работает взимать плату за графические процессоры, если их экземпляры вытесняются в первую очередь минуту после того, как они начнут работать.

Инструкции по автоматическому перезапуску невытесняемого экземпляра см. Параметры обновления экземпляра.

Чтобы узнать, как создавать вытесняемые экземпляры с подключенными графическими процессорами, прочтите Создание виртуальных машин с подключенными графическими процессорами.

Резервирование графических процессоров со скидкой за обязательное использование

Чтобы зарезервировать ресурсы GPU в определенной зоне, см. Резервирование зональных ресурсов.Для обязательного использования требуется бронирование со скидкой на графические процессоры.

Сравнение графических процессоров

Просмотрите этот раздел, чтобы узнать больше о таких факторах, как производительность. спецификации, доступность функций и идеальные типы рабочих нагрузок, которые лучше всего подходят для различных моделей графических процессоров, доступных в Compute Engine.

Максимальный объем ЦП и памяти, доступный для любой модели графического процессора, зависит от зона, в которой работает ресурс GPU. Для получения дополнительной информации о памяти, Ресурсы ЦП, а также доступный регион и зоны, см. список GPU.

Общее сравнение

Метрическая система A100 Т4 V100 П4 п100 K80
Память 40 ГБ HBM2 при 1,6 ТБ / с 16 ГБ GDDR6 @ 320 ГБ / с 16 ГБ HBM2 @ 900 ГБ / с 8 ГБ GDDR5 @ 192 ГБ / с 16 ГБ HBM2 при 732 ГБ / с 12 ГБ GDDR5 @ 240 ГБ / с
Межсоединение Полная сетка NVLink @ 600 ГБ / с НЕТ Кольцо NVLink @ 300 ГБ / с НЕТ НЕТ НЕТ
Поддержка удаленной рабочей станции GRID
Лучше всего подходит для Обучение машинному обучению, вывод, HPC Вывод ML, обучение, рабочие станции удаленной визуализации, перекодирование видео Обучение ML, вывод, HPC Рабочие станции удаленной визуализации, вывод машинного обучения и перекодирование видео Обучение машинному обучению, вывод, высокопроизводительные вычисления, рабочие станции удаленной визуализации Вывод ML, обучение, HPC
Стоимость Чтобы сравнить цены на графические процессоры для различных моделей графических процессоров и регионов, доступных в Compute Engine, см. цены на GPU.

Сравнение производительности

Метрическая система A100 Т4 V100 П4 п100 K80
Вычислительная производительность
FP64 9,7 терафлопс 0,25 терафлопс 1 7,8 терафлопс 0,2 терафлопс 1 4.7 терафлопс 1,46 терафлопс
FP32 19,5 терафлопс 8,1 терафлопс 15,7 терафлопс 5,5 терафлопс 9,3 терафлопс 4,37 терафлопс
FP16 18,7 терафлопс
INT8 22 ТОПСА 2
Производительность тензорного ядра
FP64 19.5 терафлопс
TF32 156 терафлопс
FP16 / FP32 смешанной точности 312 терафлопс 3 65 терафлопс 125 терафлопс
INT8 624 ТОПЫ 2 180 ТОПС 2
INT4 1248 ТОПС 2 260 ТОПС 2

1 Чтобы код FP64 работал правильно, небольшое количество FP64 аппаратные блоки включены в архитектуру графического процессора T4 и P4.

2 Тераопераций в секунду.

3 Для обучения смешанной точности NVIDIA A100 также поддерживает bfloat16 тип данных.

Ограничения

Для виртуальных машин с подключенными графическими процессорами применяются следующие ограничения:

  • Если вы хотите использовать графические процессоры NVIDIA® K80 со своими виртуальными машинами, виртуальные машины не могут используйте Intel Skylake или более поздние платформы ЦП.

  • Графические процессоры

    в настоящее время поддерживаются только с универсальными N1 или оптимизированные для ускорителя типы машин A2.

  • Вы не можете подключать графические процессоры к виртуальным машинам с типы машин с общим ядром.

  • ВМ с подключенными графическими процессорами должны остановка для мероприятий по техническому обслуживанию хоста, но может автоматический перезапуск. События обслуживания хоста на Compute Engine имеют частота один раз в две недели но иногда может запускаться чаще. Вы должны настроить свой рабочих нагрузок для аккуратной обработки этих событий технического обслуживания. Конкретно, длительные рабочие нагрузки, такие как машинное обучение и высокопроизводительные вычисления (HPC) должны обрабатывать прерывание событий обслуживания хоста.Для получения дополнительной информации см. Обработка событий обслуживания хоста GPU.

  • Для защиты систем и пользователей Compute Engine в новых проектах есть глобальная квота графического процессора, которая ограничивает общее количество графических процессоров, которые вы можете создать в любая поддерживаемая зона. Когда вы запрашиваете квоту графического процессора, вы должны запрашивать квоту для моделей GPU, которые вы хотите создать в каждом регионе, и дополнительные глобальная квота на общее количество графических процессоров всех типов во всех зонах.

  • виртуальных машин с одним или несколькими графическими процессорами имеют максимальное количество виртуальных ЦП для каждый графический процессор, который вы добавляете в экземпляр.Например, каждый Графический процессор NVIDIA® K80 позволяет использовать до восьми виртуальных ЦП и до 52 ГБ памяти в вашем экземпляре типа машины. Чтобы увидеть доступные диапазоны виртуальных ЦП и памяти для различных конфигураций графических процессоров, см. список графических процессоров.

  • Графическим процессорам

    для правильной работы требуются драйверы устройств. Графические процессоры NVIDIA работают на Compute Engine должна использоваться минимальная версия драйвера. Для дополнительной информации о версиях драйверов см. Требуемые версии драйверов NVIDIA.

  • виртуальных машин с определенной моделью подключенного графического процессора покрываются Соглашение об уровне обслуживания Compute Engine только в том случае, если эта подключенная модель графического процессора общедоступен и поддерживается более чем в одной зоне в одном регионе.Соглашение об уровне обслуживания Compute Engine не распространяется на модели графических процессоров в следующие зоны:

    • NVIDIA® A100:
    • NVIDIA® T4:
      • австралия-юго-восток 1-а
      • европа-запад3-б
      • Юго-Америка-Восток1-С
    • NVIDIA® V100:
    • NVIDIA® P100:
      • австралия-юго-восток1-с
      • европа-запад4-а
    • NVIDIA® K80:
  • Compute Engine поддерживает одновременную работу 1 пользователя на каждый графический процессор.

Что дальше?

BFGPU и флагманский графический процессор Nvidia по сравнению с

GeForce RTX 3090 от Nvidia, несомненно, является одним из самых мощных графических процессоров. Вот его сравнение с гораздо более дешевой видеокартой RTX 3080.

GeForce RTX 3090 — самый мощный графический процессор в новейшей линейке видеокарт Nvidia . Хотя RTX 3080 может быть не таким функциональным, он предлагает довольно много и по гораздо более низкой цене.Собирая вместе, Nvidia, безусловно, продемонстрировала последствия, меняющие правила игры, которые дразнили всей шумихой перед анонсом серии RTX 30.

Пионер графических процессоров уже несколько месяцев дразнит свою грядущую серию графических процессоров следующего поколения, поскольку потребители ждут преемника его архитектуры Тьюринга, первоначально выпущенной еще в 2018 году.Теперь, когда Nvidia представила возможности своей архитектуры Ampere, потребители, наконец, могут увидеть, насколько графические процессоры GeForce второго поколения улучшились по сравнению с серией RTX 20. Конечно, RTX 2080 последнего поколения уже стоит больше, чем консоли следующего поколения, и это не изменилось с появлением совершенно новой серии RTX 30.

Связанные: что конкретно объясняется и почему это имеет значение

В пресс-релизе генеральный директор Nvidia Дженсен Хуанг объяснил, что грандиозный прогресс графических процессоров Ampere по сравнению с архитектурой Тьюринга последнего поколения является величайшим скачком в истории.GeForce RTX 3090 определенно оправдывает это утверждение, учитывая, что компания подтвердила, что он работает на 50 процентов быстрее, чем уже гигантский графический процессор Titan RTX. Тем не менее, RTX 3090 также имеет огромную цену в 1500 долларов. Хотя RTX 3080 может быть не таким мощным, он по-прежнему стоит столько же, сколько 2080, примерно от 700 долларов.

Разница в производительности Nvidia RTX 3090 и 3080

Учитывая разницу в цене почти в 1000 долларов, потребители могут ожидать огромного расхождения в производительности между RTX 3090 и 3080, учитывая превосходные характеристики первого.3090 поставляется с объемом видеопамяти 24 ГБ, что более чем вдвое превышает 10 ГБ 3080. Кроме того, высокоскоростная память GDDR6X 3090 работает со скоростью 19,5 ГБ / с, а 3080 — 19 ГБ / с. RTX 3080 способен постоянно рендерить игры в 4K со скоростью 60 кадров в секунду, но 3090 — первый в мире графический процессор, который поддерживает 8K со скоростью 60 кадров в секунду. 3090 — это не только веха для компьютерных игр, но и свергнувший Titan RTX, будучи в 10 раз тише и работающим при 30 градусах Цельсия, установив высокую планку для современных игровых ПК.Есть веская причина, по которой Nvidia назвала RTX 3090 «Большим свирепым графическим процессором».

Тем не менее, 3080 выигрывает от более раннего периода выпуска, который начинается 17 сентября, и по-прежнему обеспечивает достаточную производительность менее чем за половину цены 3090.Тем, кто надеется заполучить «Ferocious» 3090 GPU от Nvidia, придется подождать немного дольше, так как его выпуск запланирован на 24 сентября. Хотя две видеокарты Nvidia могут не быть равными по мощности, каждая из них должна быть больше, чем достаточно, когда дело доходит до того, чтобы геймеры были довольны, пока не появятся графические процессоры следующего поколения.

Подробнее: Как Nvidia RTX IO улучшит частоту кадров и загрузку игры на ПК

Источник: Nvidia

Apple объявляет о выпуске 15 самых интересных приложений и игр в магазине приложений 2020 года

Об авторе Кайл Энсина (Опубликовано 202 статьи)

Кайл Энсина — писатель с более чем пятилетним профессиональным опытом, освещающий самые разные темы: от вирусных развлекательных новостей, политики и обзоров фильмов до технологий, игр и даже криптовалюты.В свободное время он занимается сочинением мелодий, прослушиванием вдохновляющих симфоний, физическими упражнениями, сочинением вымышленных фантазий (рассказов) и, конечно же, играми как сумасшедший!

Ещё от Kyle Encina

NVIDIA GeForce MX250 против Intel Iris Plus G7 — графический процессор NVIDIA предлагает на 50% лучшую производительность при более низкой цене

Как мы уже знаем, GeForce MX250 является самым быстрым выделенным графическим процессором низкого уровня (вы можете посмотреть здесь и здесь) в то время как Intel Iris Plus G7 является текущим королем iGPU.Вот почему мы собираемся сравнить самый быстрый доступный графический процессор без GTX / RTX и самый быстрый iGPU на рынке — MX250 и Iris Plus G7. Видеокарту GeForce можно найти в большом количестве устройств, в то время как Iris G7 используется в некоторых более премиальных ноутбуках, чем в ноутбуках на базе MX250.

Intel Iris Plus G4 был на одном уровне (или немного быстрее) с GeForce MX110 (которая является наименее мощной выделенной графикой NVIDIA на рынке), и у нас есть ощущение, что его старший брат не сможет противостоять MX250. потому что последний намного быстрее, чем MX110.

Посмотреть все конфигурации с GeForce MX250 / Intel Iris Plus G7

Содержание

Обзор спецификаций

MX250 имеет 384 шейдерных блока, 16 блоков ROP, базовую и повышающую частоту 1518 МГц / 1582 МГц, частоту памяти 7000 МГц, 64-битную шину памяти и до 4 ГБ памяти GDDR5. Это графический процессор Pascal, использующий чип GP108.

Intel Iris Plus G7 выглядит как действительно быстрый iGPU, но на бумаге он выглядит очень скромным, если сравнивать его с MX250. Intel iGPU имеет 64 EU, базовую и повышающую частоту 300 МГц / 1000 МГц и является частью 10-нм Intel SoC.Это означает, что размер переменной памяти (автоматически настраивается BIOS или пользователь может установить собственный размер ОЗУ, который будет выделен только для iGPU), а частота памяти Iris G7 связана с часами ОЗУ.

Таблица сравнения графических процессоров

GeForce MX250 Intel Iris Plus G7
Архитектура Паскаль iGPU в SoC 10-го поколения
Чип графического процессора GP108 Ирис G7
Шейдерные блоки 384 (+ 500%) 64
ROP 16
Базовая частота (МГц) 1518 (+ 406%) 300
Тактовая частота с ускорением (МГц) 1582 (+ 44%) 1100
Частота памяти (МГц) 7000 зависит от частоты ОЗУ
Объем памяти (МБ) 2048-4096 переменная
Тип памяти GDDR5 DDR4
Разрядность шины памяти (бит) 64
TGP (общая графическая мощность) Расчетная мощность: 10-25 Вт TDP: 12-25 + W (+ 20% -)
Версия DirectX 12.1 12,1
Технологии 14 нм 10 нм
Возможности RTX
Дата выпуска 02.2019 01.2019
Подробные характеристики Ссылка Ссылка

Поехали, проверим «забавную часть» этой статьи — графики.

Синтетические тесты

Как и ожидалось, MX250 намного быстрее, чем Intel Iris Plus G7 в наших синтетических тестах.

GeForce MX250 поверх Intel Iris Plus G7 3Dmark Fire Strike (G) Unigine Heaven 3.0 Unigine Heaven 4.0 Суперпозиция Unigine Средняя разница%
NVIDIA GeForce MX250 44% 70% 63% 35%
Intel Iris Plus G7 7%

Игровые тесты

Как мы уже говорили, графический процессор GeForce определенно обладает большей мощностью, чем его интегрированный конкурент, но давайте посмотрим, насколько велик разрыв между ними.

Iris G7 хорошо работает только при низких настройках. Кроме того, MX250 здесь намного быстрее.

Оба графических процессора демонстрируют хорошие результаты в DOTA 2. Intel iGPU показывает хорошие значения FPS при низких и средних настройках, но если вы хотите играть в эту игру с яркими визуальными эффектами, MX250 — это то, что вам нужно.

Сводка производительности (игровые тесты)

В конце концов, MX250 является более быстрым графическим процессором в этом сравнении. Intel Iris Plus G7 неплох, но он не очень близок к уровню производительности MX250, особенно когда дело доходит до настроек High.

NVIDIA MX250 поверх Intel Iris Plus G7 Full HD, низкий Full HD, нормальный Full HD, высокое Средняя разница%
NVIDIA GeForce MX250 + 19% + 35% + 90% + 48%
Intel Iris Plus G7

Вердикт

Вы знаете, что конечная цена конкретного устройства является одним из самых важных факторов при покупке нового ноутбука.MX250 имеет три больших преимущества по сравнению с Iris G7.

Первое — это наличие во множестве разных устройств от разных производителей. Вы можете найти этот графический процессор в тысячах различных устройств с разными процессорами, в то время как iGPU G7 является частью пяти SoC Intel Ice Lake.

Второе — это стабильность работы. MX250 не рассеивает много тепла и работает практически одинаково, независимо от устройства. Intel iGPU — это совсем другая история. Если ЦП объединен с памятью DDR4 3200 МГц в одноканальном режиме, охлаждающее решение плохое, а доступная память для iGPU установлена ​​на «Авто» в BIOS, iGPU будет много работать, и он не будет показывать свою истинная производительность.Iris G7 необходимо хорошо охлаждаемое устройство с памятью LPDDR4X 3733 МГц в двухканальном режиме и как минимум 2 ГБ оперативной памяти, выделенной для него (кстати, охлаждение является наиболее важным в этом случае) — в этой ситуации iGPU будет сиять. с высокой производительностью, но такая конфигурация будет вам дорого стоить (и в этом нет никакого смысла).

Третье — цена. Если вам действительно нужна быстрая и тонкая машина для работы и вы время от времени играете в легкие игры — хорошо, Intel Iris Plus G7 — хороший выбор, потому что он не занимает лишнего места и рассеивает меньше тепла, чем MX250.Последний предлагает лучшую производительность, чем его конкурент Intel, и, как мы уже сообщали вам, его можно найти в гораздо более доступных устройствах. Топовая конфигурация Ice Lake настолько дорога, что за те же деньги вы можете купить приличный ноутбук с 8-поточным процессором Comet Lake Core i5 в паре с быстрым графическим процессором NVIDIA GTX.

Все ноутбуки, оснащенные NVIDIA GeForce MX250

Все ноутбуки, оснащенные Intel Iris Plus G7

Новый Radeon RX 6800 XT от AMD обещает сразиться с Nvidia RTX 3080

Сегодня AMD представляет три новые графические карты Radeon RX 6000 Series, которые возьмут на себя новейшие графические процессоры Nvidia серии RTX 3000.Есть Radeon RX 6800 XT (649 долларов), которая лучше RTX 3080; Radeon RX 6800 (579 долларов), которую можно сравнить с RTX 2080 Ti или RTX 3070; и, наконец, Radeon RX 6900 XT (999 долларов США), которая противостоит гиганту Nvidia RTX 3090.

Все три основаны на новейшей технологии AMD RDNA 2, которая также присутствует в PS5 и Xbox Series X. Эти новейшие карты Radeon будут поддерживать трассировку лучей с аппаратным ускорением для игр следующего поколения, и AMD обещает идти лицом к лицу с Nvidia. в компьютерных играх с разрешением 4K и 1440p.

Новая Radeon RX 6800 XT за 649 долларов предназначена специально для видеокарты Nvidia RTX 3080, обещая производительность в играх 4K и 1440p, которая соответствует или превышает последнюю карту Nvidia за 50 долларов меньше. Он оснащен 16 ГБ памяти GDDR6, базовой тактовой частотой 2015 МГц, тактовой частотой в ускоренном режиме 2250 МГц, производительностью графического процессора 20,74 терафлопс и всего 72 вычислительными блоками.

AMD Radeon RX 6800 XT показывает результаты тестов в разрешении 4K. AMD Radeon RX 6800 XT выполняет тесты при разрешении 1440p.

AMD поделилась некоторыми ранними тестами, которые показывают, что Radeon RX 6800 XT превосходит RTX 3080 в разрешении 4K в Battlefield V , Borderlands 3 , Call of Duty: Modern Warfare , Forza Horizon 4 и других. Он также соответствует RTX 3080 в Shadow of the Tomb Raider , Gears 5 и Doom Eternal . Если эти результаты будут одинаковыми для более широкого диапазона игр, то Radeon RX 6800 XT, безусловно, выглядит многообещающим с точки зрения производительности в играх 4K.

Собственные тесты AMD также похожи на 1440p, с теми же тестированными играми. Очевидно, нам нужно будет полностью протестировать эту карту против RTX 3080, но похоже, что AMD удалось сопоставить или превзойти новейший графический процессор Nvidia в ряде игр. AMD достигла этих улучшений производительности, сохранив при этом энергопотребление меньше, чем у RTX 3080 от Nvidia. RX 6800 XT потребляет до 300 Вт мощности, а RTX 3080 — до 320 Вт.

AMD Radeon RX 6800 выполняет тесты при разрешении 4K. AMD Radeon RX 6800 выполняет тесты при разрешении 1440p.

Следующей идет Radeon RX 6800 за 579 долларов, нацеленная на RTX 2080 Ti от Nvidia. Согласно AMD, она превосходит или соответствует старой карте Nvidia в ограниченном количестве игр, которые компания тестировала как в 4K, так и в 1440p. Он оснащен 60 вычислительными блоками, базовой тактовой частотой 1815 МГц, тактовой частотой в ускоренном режиме 2105 МГц, производительностью графического процессора 16,17 терафлопс и 16 ГБ памяти GDDR6.

Интересно, что базовая 6800 потребляет 250 Вт энергии, что всего на 10 Вт меньше, чем RTX 2080 Ti Founders Edition от Nvidia. AMD не поделилась результатами тестов для новой RTX 3070, но если она также может сравниться или превзойти последнюю карту Nvidia за 499 долларов, то это может быть еще одним отличным вариантом для 1440p.

Наконец, есть RX 6900 XT за 999 долларов, который идет в ногу с RTX 3090 от Nvidia. Хотя Nvidia позиционирует RTX 3090 для игр 8K, большие 24 ГБ памяти делают его более вероятным для использования в творческой индустрии в качестве Titan. замена.AMD не решила увеличить объем памяти до ее эквивалента, оставив RX 6900 XT на 16 ГБ памяти GDDR6 и, как следствие, предлагая конкурентоспособную цену.

AMD увеличила здесь свои вычислительные блоки до 80, но частота ядра остается на уровне 2015 МГц с увеличением на 2250 МГц. Все это дает 23,04 терафлопс производительности графического процессора. Производительность RTX 3090 выглядит намного более смешанной по сравнению с собственными тестами AMD. Хотя RX 6900 XT обещает комфортно превзойти RTX 3090 в Battlefield V , Forza Horizon 4 и Gears 5, , он проигрывает или просто совпадает с другими играми.

AMD Radeon RX 6900 XT показывает результаты тестов в разрешении 4K.

Во всех трех новых картах серии Radeon RX 6000 также используется традиционный дизайн слота 2,5, с обычными соединениями PCIe и системой с тремя вентиляторами, охлаждающими карты. AMD не проделала никакой сложной работы по уменьшению размера своей печатной платы, как это сделала Nvidia, и не представила новый 12-контактный разъем питания.

Вы заметите, что AMD выбрала 16 ГБ памяти GDDR6 во всех трех своих новых картах Radeon.Это больше, чем доступно на RTX 3070 (8 ГБ) и RTX 3080 (10 ГБ), но меньше, чем 24 ГБ на RTX 3090. Обе карты Nvidia RTX 3080 и 3090 также используют более быстрые модули GDDR6X, но AMD решила избежать перехода на более дорогие и энергоемкие высокоскоростные модули.

Вместо этого компания нацелена на повышение эффективности за счет нового дизайна Infinity Cache. Infinity Cache — это самая большая часть улучшений памяти AMD. Игры с разрешением 4K часто могут быть ограничены пропускной способностью памяти в современных графических процессорах, и AMD надеется ответить на некоторые из этих требований, установив более крупный и эффективный кеш вместо более высокоскоростной GDDR6X.

AMD использует высокоскоростную кэш-память объемом 128 МБ, основанную на дизайне кэш-памяти процессора Zen 3 L3 компании. Он оптимизирован для использования с графикой и обещает обеспечить вдвое большую пропускную способность. Все это означает, что эти новейшие карты Radeon могут более эффективно передавать данные в графический конвейер и обеспечивать повышение производительности без значительного увеличения энергопотребления. Целью AMD здесь было удвоить производительность по сравнению с предыдущей картой RX 5700 XT, лишь слегка увеличив энергопотребление.

Видеокарта AMD RX 6800 XT.

Поскольку все эти карты являются RDNA 2, это означает, что они поддерживают API Microsoft DirectX12 Ultimate и даже DirectStorage, когда он станет доступен. Это включает в себя трассировку лучей с аппаратным ускорением и затенение с переменной скоростью. После того, как DirectStorage будет полностью включен в Windows в какой-то момент в 2021 году, время загрузки определенных дисков NVMe будет еще больше сокращено. AMD также имеет «режим ярости» для легкого и стабильного разгона этих карт. Будет интересно посмотреть, сколько дополнительной производительности можно выжать из этих якобы эффективных карт.

В то время как AMD обещает сразиться с Nvidia в играх с разрешением 4K и многом другом, одной большой недостающей частью этой битвы является отсутствие эквивалента DLSS от Nvidia. Технология суперсэмплинга Nvidia на базе искусственного интеллекта преобразила игры, которые ее поддерживают, обеспечивая отличное качество изображения и более высокую частоту кадров за счет простого переключения настроек игры.

AMD сообщает мне, что у нее есть новая функция суперсэмплинга при тестировании, которая предназначена для повышения производительности во время трассировки лучей.Компания обещает, что ее технология суперсэмплинга будет открытой и кроссплатформенной, что означает, что она может появиться на консолях следующего поколения, таких как Xbox Series X и PS5. AMD работает с рядом партнеров над этой технологией и ожидает сильной поддержки отрасли. К сожалению, это не будет готово к запуску этих трех новых видеокарт Radeon RX 6000 Series.

И Radeon RX 6800 XT, и RX 6800 поступят в продажу 18 ноября, а Radeon RX 6900 XT поступит в продажу 8 декабря.Хотя AMD не смогла сопоставить или превзойти цены Nvidia на RTX 3070, экономия 50 долларов на RX 6800 XT по сравнению с RTX 3080 может быть значительной. Все будет зависеть от того, соответствуют ли обещания AMD по производительности последним картам Nvidia, поскольку они могут предложить отличную альтернативу для людей, желающих обновить свои графические процессоры в ближайшие месяцы. Надеюсь, AMD сможет предоставить достаточно запасов для удовлетворения неизбежного спроса.

графических процессоров Nvidia, отсортированных по ядрам CUDA · GitHub

графических процессоров Nvidia, отсортированных по ядрам CUDA · GitHub

Мгновенно делитесь кодом, заметками и фрагментами.

Графические процессоры Nvidia, отсортированные по ядрам CUDA

Список настольных Nvidia GPUS, упорядоченных по количеству ядер CUDA

Я создал его для тех, кто использует Neural Style

Ребята, добавьте в комментарии свои аппаратные настройки, нейронные конфиги и результаты!

Графический процессор ядер CUDA Память Частота процессора
GeForce GTX TITAN Z 5760 12 ГБ 705/876
NVIDIA TITAN Xp 3840 12 ГБ 1582
GeForce GTX 1080 Ti 3584 11 ГБ 1582
GeForce GTX ТИТАН X 3072 12 ГБ 1000/1075
GeForce GTX 690 3072 4 ГБ 915/1019
GeForce GTX TITAN Черный 2880 6 ГБ 889/980
GeForce GTX 780 Ti 2880 3 ГБ 875/928
GeForce GTX 980 Ti 2816 6 ГБ 1000/1075
GeForce GTX ТИТАН 2688 6 ГБ 837/876
GeForce GTX 1080 2560 8 ГБ 1607/1733
GeForce GTX 780 2304 3 ГБ 863/900
GeForce GTX 980 2048 4 ГБ 1126/1216
GeForce GTX 1070 1920 8 ГБ 1506/1683
GeForce GTX 970 1664 4 ГБ 1050/1178
GeForce GTX 770 1536 2 ГБ 1046/1085
GeForce GTX 680 1536 2 ГБ 1006/1058
GeForce GTX 760 Ti (OEM) 1344 2 ГБ 960
GeForce GTX 670 1344 2 ГБ 915/980
GeForce GTX 660 Ti 1344 2 ГБ 915/980
GeForce GTX 1060 (6 ГБ) 1280 6 ГБ 1506/1708
GeForce GTX 960 (OEM) 1280 3 ГБ 924/980
GeForce GTX 760 192-битная (OEM) 1152 1.5 ГБ / 3 ГБ 980/1033
GeForce GTX 760 1152 2 ГБ 980/1033
GeForce GTX 1060 (3 ГБ) 1152 3 ГБ 1506/1708
GeForce GTX 660 (OEM) 1152 1,5 ГБ / 3 ГБ 823/888
GeForce GTX 960 1024 2 ГБ 1127/1178
GeForce GTX 950 (OEM) 1024 2 ГБ 935/980
GeForce GTX 590 1024 3 ГБ 630
GeForce GTX 660 960 2 ГБ 980/1033
GeForce GTX 1050 Ti 768 4 ГБ 1290/1392
GeForce GTX 950 768 2 ГБ 1024/1188
GeForce GTX 650 Ti BOOST 768 2 ГБ 980/1033
GeForce GTX 650 Ti 768 1 ГБ 928
GeForce GTX 1050 640 2 ГБ 1354/1455
GeForce GTX 750 Ti 640 2 ГБ 1020/1075
GeForce GTX 645 (OEM) 576 1 ГБ 823
GeForce GTX 750 512 1 ГБ 1020/1085
GeForce GTX 580 512 1536 МБ
GeForce GTX 480 480 1536 МБ
GeForce GTX 570 480 1280 Мб
GeForce GTX 295 480 1792 МБ
GeForce GTX 470 448 1280 Мб
GeForce GTX 745 (OEM) 384 4 ГБ
GeForce GT 740 384 1 ГБ / 2 ГБ
GeForce GT 730 96-384 1 ГБ / 2 ГБ 700/902
GeForce GT 635 (OEM) 384 2 ГБ
GeForce GTX 650 384 1 ГБ
GeForce GTX 560 Ti 384 1 ГБ
GeForce GTX 560 (OEM) 384 1280 МБ / 2560 МБ
GeForce GT 640 384 2 ГБ
GeForce GTX 465 352 1 ГБ
GeForce GTX 560 Ti (OEM) 352 1280 ГБ / 2560 ГБ
GeForce GTX 460 336 1 ГБ
GeForce GTX 560 336 1 ГБ
GeForce GTX 460 SE 288 1 ГБ
GeForce GTX 555 (OEM) 288 1 ГБ
GeForce GTX 285 для Mac 240 1 ГБ
GeForce GTX 285 240 1 ГБ
GeForce GTX 280 240 1 ГБ
GeForce GT 720 192 1 ГБ / 2 ГБ
GeForce GT 710 192 2 ГБ 954
GeForce GTS 450 192 1 ГБ
GeForce GTX 550 Ti 192 1 ГБ
GeForce GT 630 (OEM) 192 1 ГБ / 2 ГБ
GeForce GT 640 (OEM) 144/384 1 ГБ / 2 ГБ
GeForce GT 545 GDDR5 (OEM) 144 1 ГБ
GeForce GT 545 DDR3 144 1.5 ГБ / 3 ГБ
GeForce GTS 250 128 1 ГБ
GeForce GTS 150 128 1 ГБ
GeForce GTS 240 (OEM-продукт) 112 1 ГБ
GeForce GT 630 96 1 ГБ 700 ~ 902
GeForce GT 620 96 1 ГБ 700
GeForce GT 440 96 1 ГБ 810
GeForce GT 430 96 1 ГБ 700
GeForce GT 530 (OEM) 96 1 ГБ / 2 ГБ
GeForce GT 340 (OEM) 96 1 ГБ
GeForce GT 330 (OEM) 96-112 1 ГБ / 2 ГБ
GeForce GT 240 96 1 ГБ
GeForce GT 320 (OEM-продукт) 72 1 ГБ
GeForce GT 705 (OEM) 48 1 ГБ
GeForce GT 620 (OEM) 48 1 ГБ
GeForce GT 610 48 1 ГБ
GeForce GT 520 (OEM) 48 1 ГБ / 2 ГБ
GeForce GT 520 48 1 ГБ
GeForce GT 220 48 1 ГБ
GeForce 605 (OEM) 48 1 ГБ
GeForce 510 (OEM) 48 1 ГБ / 2 ГБ
GeForce 405 (OEM) 16 1 ГБ
GeForce 310 (OEM) 16 1 ГБ
Вы не можете выполнить это действие в настоящее время.

Ваш комментарий будет первым

Добавить комментарий

Ваш адрес email не будет опубликован.