Gpu speed что это: Почему для анализа финансовых данных применяют графические процессоры

Содержание

Почему для анализа финансовых данных применяют графические процессоры

Все мы знаем, что у видеокарты и процессора несколько различные задачи, однако знаете ли вы, чем они отличаются друг от друга во внутренней структуре? Как CPU (англ. — central processing unit ), так и GPU (англ. — graphics processing unit ) являются процессорами, и между ними есть много общего, однако сконструированы они были для выполнения различных задач. Подробнее об этом вы узнаете из данной статьи.

CPU

Основная задача CPU, если говорить простыми словами, это выполнение цепочки инструкций за максимально короткое время. CPU спроектирован таким образом, чтобы выполнять несколько таких цепочек одновременно или разбивать один поток инструкций на несколько и, после выполнения их по отдельности, сливать их снова в одну, в правильном порядке. Каждая инструкция в потоке зависит от следующих за ней, и именно поэтому в CPU так мало исполнительных блоков, а весь упор делается на скорость выполнения и уменьшение простоев, что достигается при помощи кэш-памяти и конвейера .

GPU

Основная функция GPU — рендеринг 3D графики и визуальных эффектов, следовательно, в нем все немного проще: ему необходимо получить на входе полигоны, а после проведения над ними необходимых математических и логических операций, на выходе выдать координаты пикселей. По сути, работа GPU сводится к оперированию над огромным количеством независимых между собой задач, следовательно, он содержит большой объем памяти, но не такой быстрой, как в CPU, и огромное количество исполнительных блоков: в современных GPU их 2048 и более, в то время как у CPU их количество может достигать 48, но чаще всего их количество лежит в диапазоне 2-8.

Основные отличия

CPU отличается от GPU в первую очередь способами доступа к памяти. В GPU он связанный и легко предсказуемый — если из памяти читается тексел текстуры, то через некоторое время настанет очередь и соседних текселов. С записью похожая ситуация — пиксель записывается во фреймбуфер, и через несколько тактов будет записываться расположенный рядом с ним. Также графическому процессору, в отличие от универсальных процессоров, просто не нужна кэш-память большого размера, а для текстур требуются лишь 128–256 килобайт. Кроме того, на видеокартах применяется более быстрая память, и в результате GPU доступна в разы большая пропускная способность, что также весьма важно для параллельных расчетов, оперирующих с огромными потоками данных.

Есть множество различий и в поддержке многопоточности: CPU исполняет 12 потока вычислений на одно процессорное ядро, а GPU может поддерживать несколько тысяч потоков на каждый мультипроцессор, которых в чипе несколько штук! И если переключение с одного потока на другой для CPU стоит сотни тактов, то GPU переключает несколько потоков за один такт.

В CPU большая часть площади чипа занята под буферы команд, аппаратное предсказание ветвления и огромные объемы кэш-памяти, а в GPU большая часть площади занята исполнительными блоками. Вышеописанное устройство схематично изображено ниже:

Разница в скорости вычислений

Если CPU — это своего рода «начальник», принимающий решения в соответствии с указаниями программы, то GPU — это «рабочий», который производит огромное количество однотипных вычислений. Выходит, что если подавать на GPU независимые простейшие математические задачи, то он справится значительно быстрее, чем центральный процессор. Данным отличием успешно пользуются майнеры биткоинов.

Майнинг Bitcoin

Суть майнинга заключается в том, что компьютеры, находящиеся в разных точках Земли, решают математические задачи, в результате которых создаются биткоины . Все биткоин-переводы по цепочке передаются майнерам, чья работа состоит в том, чтобы подобрать из миллионов комбинаций один-единственный хэш, подходящий ко всем новым транзакциям и секретному ключу, который и обеспечит майнеру получение награды в 25 биткоинов за раз. Так как скорость вычисления напрямую зависит от количества исполнительных блоков, получается, что GPU значительно лучше подходят для выполнения данного типа задачи, нежели CPU. Чем больше количество произведенных вычислений, тем выше шанс получить биткоины. Дело даже дошло до сооружения целых ферм из видеокарт.

Немецкого исследователя об использовании вычислений GPU в эконофизике и статистической физике, в том числе для осуществления анализа информации на фондовом рынке. Мы представляем вашему вниманию основные тезисы этого материала.

Примечание: Статья в журнале датирована 2011 годом, с тех пор появились новые модели GPU-устройств, однако общие подходы к использованию этого инструмента в инфраструктуре для онлайн-трейдинга остались неизменными

Требования к вычислительным мощностям растут в различных сферах. Одна из них — финансовый анализ, который необходим для успешной торговли на фондовом рынке, особенно средствами HFT. Для того, чтобы принять решение о покупке или продаже акций, алгоритм должен проанализировать серьезный объём входных данных — информация о транзакциях и их параметрах, текущих котировках и трендах изменения цены и т.д.

Время, которое пройдет от создания заявки на покупку или продажу до получения ответа о ее успешныом выполнеии от биржевого сервера называется раундтрипом (round-trip, RTT). Участники рынка всеми силами стремятся снизить это время, в частности для этого используются технологии прямого доступа на биржу, а серверы с торговым софтом располагаются на колокации рядом с торговым движком бирж.

Однако технологические возможности по сокращению раундтрипа ограничены, и после их исчерпания перед трейдерами встает вопрос о том, как еще можно ускорить торговые операции. Для этого применяются новые подходы к построению инфраструктуры для онлайн-трейдинга. В частности используются FPGA и GPU. Об ускорении HFT-трейдинга с помощью «программируемого железа» мы писали ранее, сегодня речь пойдет о том, как для этого можно применять графические процессоры.

Что такое GPU
Архитектура современных графических карт строится на основе масштабируемого массива потоковых мультипроцессоров. Один такой мультипроцессор содержит восемь скалярных процессорных ядер, многопоточный модуль инструкций, разделяемую память, расположенную на чипе (on-chip).

Когда программа на C, использующая расширения CUDA, вызывает ядро GPU, копии этого ядра или потоки, нумеруются и распределяются на доступные мультипроцессоры, где уже начинается их выполнение. Для такой нумерации и распределения сеть ядра подразделяется на блоки, каждый из которых делится на различные потоки.

Потоки в таких блоках выполняются одновременно на доступных мультипроцессорах. Для управления большим количеством потоков используется модуль SIMT (single-instruction multiple-thread). Этот модуль группирует их в «пачки» по 32 потока. Такие группы исполняются на том же мультипроцессоре.

Анализ финансовых данных на GPU
В финансовом анализе применяется множество мер и показателей, расчет которых требует серьезных вычислительных мощностей. Ниже мы перечислим некоторые из них и сравним быстродействие при их обработке, показанное «обычным» процессоромо Intel Core 2 Quad CPU (Q6700) c тактовой частотой 2,66 ГГц и размером кэша 4096 килобайт, а также популярных графических карт.
Экспонента Херста
Мера, называемая экспонентной Херста, используется в анализе временных рядов. Эта величина уменьшается в том случае, если задержка между двумя одинаковыми парами значений во временном ряду увеличивается. Изначально это понятие применялось в гидрологии для определения размеров плотины на реке Нил в условиях непредсказуемых дождей и засух.
N возможных вариантов расположения спинов (где N — число атомов решётки) приписывается энергия, получающаяся из попарного взаимодействия спинов соседних атомов. Далее для заданной температуры рассматривается распределение Гиббса — рассматривается его поведение при большом числе атомов N.

В некоторых моделях (например, при размерности > 1) наблюдается фазовый переход второго рода. Температура, при которой исчезают магнитные свойства материала, называется критической (точка Кюри). В ее окрестности ряд термодинамических характеристик расходится.

Изначально модель Изинга использовалась для понимания природы ферромагнетизма, однако позднее получила и более широкое распространение. В частности, она применяется для обобщений в социально-экономических системах. Например, обобщение модели Изинга определяет взаимодействие участников финансового рынка. Каждый из них обладает стратегией поведения, рациональность которой может быть ограничена. Решения о том, продавать или покупать акции и по какой цене, зависят от предыдущих решений человека и их результата, а также от действий других участников рынка.

Модель Изинга используется для моделирования взаимодействия между участниками рынка. Для реализации модели Изинга и имитационного моделирования используется метод Монте-Карло, который позволяет построить математическую модель для проекта с неопределенными значениями параметров.

Ниже представлено сравнение быстродействия моделирования на CPU и GPU (NVIDIA GeForce GTX 280):

Существуют реализации модели Изинга с использованием в ходе анализа различного количества спинов. Мультиспиновые реализации позволяет загружать несколько спинов параллельно.

Ускорение с помощью нескольких GPU
Для ускорения обработки данных также используются кластеры GPU-устройств — в данном случае исследователи собрали кластер из двух карточек Tesla C1060 GPU, коммуникация между которыми осуществлялась через Double Data Rate InfiniBand.

В случае симуляции модели Изинга методом Монте-Карло результаты говорят о том, что производительность повышается практически линейно при добавлении большего количества GPU.

Заключение
Эксперименты показывают, что использование графических процессоров может приводить к существуенному повышению производительности финансового анализа. При этом выигрыш в скорости по сравнению с использованием архитектуры с CPU может достигать нескольких десятков раз. При этом добиться еще большего повышения производительности можно с помощью создания кластеров GPU — в таком случае она растет практически линейно.

Привет, друзья.

Вы любите поиграть в реалистичные игры на компе? Или посмотреть фильм в качестве, при котором четко видно каждую мелочь? Значит, вы должны представлять, что такое gpu в компьютере. Ничего о нем не знаете? Моя статья поможет вам избавиться от этого недоразумения;-).


GPU — это не видеокарта

Неизвестное для многих сочетание букв подразумевает под собой понятие «graphics processing unit», что на нашем языке означает графический процессор. Именно он отвечает за воспроизведение картинки на вашем железе, и чем лучше его характеристики, тем качественнее будет изображение.

Всегда считали, что эти функции выполняет ? Вы, конечно, правы, но она является комплексным устройством, и главным ее компонентом выступает как раз графический проц. Он может существовать и автономно от видюхи. Об этом поговорим немного позже.

GPU: не путать с CPU

Несмотря на сходство аббревиатур, не путайте предмет нашего разговора с (Central Processor Unit). Да, они похожи, как в названии, так и в функциях. Последний тоже может воспроизводить графику, правда, слабее в этом деле. Все же это абсолютно разные устройства.

Они отличаются архитектурой. CPU является многоцелевым девайсом, который отвечает за все процессы в компьютере. Для этого ему хватает нескольких , с помощью которых он последовательно обрабатывает одну задачу за другой.

В свою очередь, GPU изначально разработан как специализированное устройство, предназначенное для выполнение графического рендеринга, с высокой скоростью обрабатывающее текстуры и сложные изображения. Для таких целей его оснастили многопоточной структурой и множеством ядер, чтобы он работал с большими массивами информации единовременно, а не последовательно.

В виду этого преимущества, лидеры среди производителей видеоадаптеров выпустили модели, в которых графические процессоры могут стать усовершенствованной заменой центральным. У бренда nVidia такой девайс называется GTX 10xx, а у его главного конкурента AMD — RX.

Виды графических процев

Чтобы вы могли ориентироваться на рынке GPU, предлагаю ознакомиться с видами этого устройства:

  • Интегрированный (IGP). Раньше впаивался в материнскую плату, теперь встраивается в центральный процессор. Изначально не годился для воспроизведения реалистичных игр и тяжелых графических программ, однако новые модели справляются с этими задачами. Все же учтите, что такие чипы несколько медлительнее, потому что не имеют личной оперативки и обращаются к памяти CPU.

  • Гибридная графическая обработка. Это 2 в 1, то есть когда в компьютере устанавливается и первый вид, и второй вид GPU. В зависимости от выполняемых задач, включается в работу или один, или другой. Однако бывают ноутбуки, в которых могут работать сразу 2 вида устройств.
  • Внешний тип. Как несложно догадаться, это графический процессор, расположенный снаружи компа. Чаще всего такую модель выбирают обладатели ноутбуков, которым сложно впихнуть в свое железо дискретную видеокарту, но очень хочется получить достойную графику.

Как выбирать?

Когда будете подбирать для себя видеоадаптер, обращайте внимание на такие характеристики:

  • Тактовая частота. Указывается в мегагерцах. Чем цифра выше, тем больше информации за секунду сможет обработать устройство. Правда, не только она влияет на его результативность. Архитектура также имеет значение.
  • Число вычислительных блоков. Они призваны обрабатывать задачи — шейдеры, отвечающие за вершинные, геометрические, пиксельные и универсальные расчеты.

  • Быстрота заполнения (филлрейт). Этот параметр может рассказать, с какой скоростью GPU может вырисовывать картинку. Он делится на 2 вида: пиксельный (pixel fill rate) и текстурный (texel rate). На первый влияет количество ROP-блоков в структуре проца, а на второй — текстурных (TMU).

Обычно в последних моделях GPU первых блоков меньше. Они записывают рассчитанные видеоадаптером пиксели в буферы и смешивают их, что по-умному называется блендинг. TMU выполняют выборку и фильтрацию текстур и другой информации, требуемой для выстраивания сцены и общих расчетов.

Геометрические блоки

Раньше на них никто не обращал внимания, потому что виртуальные игры имели простую геометрию. Этот параметр стали учитывать после появления в DirectX 11 тесселяции. Не понимаете, о чем я? Давайте по порядку.

Является средой (набором инструментов) для написания игр. Чтобы вы ориентировались в теме, скажу, что последняя версия продукта — 12-я, которая вышла в 2015 году.

Тесселяция — это деление плоскости на части для заполнения их новой информацией, что повышает реализм игры.

Таким образом, если вы захотите с головой окунуться в атмосферу Metro 2033, Crysis 2, HAWX 2 и т. п., при выборе GPU учитывайте количество геометрических блоков.

Память

Собрались брать новую видеокарту? Значит, вам нужно учесть еще несколько характеристик оперативки:

  • Объем. Важность RAM несколько переоценена, так как не только ее емкость, но также тип и свойства влияют на производительность карты.
  • Ширина шины. Это более весомый параметр. Чем шире, тем больше информации сможет отправить память чипу и наоборот за определенное время. Для воспроизведения игр необходимо минимум 128 бит.
  • Частота. Тоже определяет пропускную способность оперативки. Но учтите, что память с 256-битной шиной и частотой 800(3200) МГц работает продуктивнее, чем со 128 битами на 1000(4000) МГц.
  • Тип. Не буду грузить вас лишней информацией, а лишь назову оптимальные на сегодня типы — это GDDR 3 и 5 поколения.

Немного об охлаждении

Задумали установить мощный чип? Сразу позаботьтесь о дополнительном охлаждении в виде радиаторов, кулеров, а если собираетесь регулярно выжимать из девайса все соки, можно подумать и над жидкостной системой.

В целом, следите за температурой видюхи. Помочь в этом вам может программа GPU-Z и т. п., которая помимо этого параметра расскажет все об устройстве.

Конечно, современные видеокарты оснащаются защитной системой, которая вроде бы не допускает перегрева. Для разных моделей предельная температура отличается. В среднем, она составляет 105 °C, после чего адаптер сам выключается. Но лучше поберечь дорогой девайс и обеспечить вспомогательное охлаждение.

Привет ребята. Сегодня мы будем говорить про GPU Speed — я расскажу простыми словами что это. Ну для начала разберем само название, GPU это графический процессор или по-простому видеокарта ваша, кстати расшифровывается как Graphics Processing Unit. Второе слово это Speed и оно означает скорость. Какой вывод? GPU Speed означает скорость видеокарты.

Но что означает скорость видеокарты? Вот и я подумал.. скорость, как бы такого понятия нет. Есть частота видюхи, то есть графического процессора. И чем выше эта частота, тем соответственно быстрее работает видюха.

Я пошел в интернет чтобы немного прояснить эту ситуацию и.. вот что узнал, смотрите, вот нашел такую картинку:

На картинке фирменная прога от Asus, это GPU Tweak II. И я так понимаю что прога позволяет переключать режимы видюхи. И вот смотрите, на картинке написано 122%, верно? Что это означает? А означает то, что видюха работает на 22% производительнее чем обычно. То есть некий такой разгончик себе. И справа сразу мы видим температуру, чтобы смотреть как там дела, ведь при разгоне температура повышается все таки.

То есть первый реальный случай где может быть GPU Speed — это фирменная прога по настройке видюхи, обычно в ней идут всякие режимы, там игровой, офисный, тихий режим, и может еще какие-то. И вроде даже можно создать собственный режим.

Вот я нашел еще одну картинку, тут все таже прога, но уже 137% стоит:

И вверху видите выбран режим Gaming Mode, то есть игровой режим.

GPU Speed 100 — это нормально?

Значит ребята, в интернете видел сообщения некоторых, они спрашивают GPU Speed 100 это нормально или нет? Ну тут вопрос не совсем ясный мне, да и должен признаться я не особо разбираюсь в видеокартах.. Но есть серьезная причина, по которой я решил написать.

Значит смотрите, при простое видеокарта также может скидывать частоту как это умеет делать процессор? Я посмотрел в интернете — вроде умеет. Но что это значит, когда видеокарта в простое загружена на все 100 процентов? А тут ребята не все так просто. Я могу ошибаться, но не так много есть программ, которые нагружают именно видеокарту, а не как обычно процессор. То есть если проге нужна мощь, то обычно она берет себе процессор, верно? Но не видеокарту, я конечно не имею ввиду игры.. если игра грузит видюху, то я думаю это нормально как бэ. Но знаете к чему я клоню? Да вот к тому, что может быть это.. майнер. Есть такие вирусы, которые используют мощь видюхи в своих целях. Некоторые это делают нагло и поэтому это сразу заметно, а некоторые используют чучуть только производительности и делают так, чтобы это было незаметно..

Еще раз — то есть вирус использует не процессор, как это делают большинство и вирусов и обычных программ, а в первую очередь именно видюху. Или вернее графический процессор. Таким образом они майнят там что-то, типа биткоины какие-то добывают, зарабатывают что ли, непонятно. Можете поискать в интернете про майнеры, такие вирусы как бы не редкость, в интернете куча сообщений о том что какой-то процесс грузит без причины так комп.

В общем если видеокарта загружена на 100 процентов в простое, то первым делом я бы проверил комп на вирусы. Для этого я советую вам использовать утилиту Dr.Web CureIt!, ее скачать можно вот тут (это офф сайт):

Кстати вот я могу ошибаться.. но смотрите на картинку:

Видите, там где GPU Speed, то там 100%, а вот там где VRAM Usage, то там 1%. Повторюсь, что я не особо понимаю в видеокартах, но мне кажется что это странная ситуация, когда графический процессор нагружен на все 100%, а вот видеопамять (это VRAM Usage) вообще не используется.. Вот это ситуация как мне кажется подозрительная.

Fan Speed GPU это что?

Fan Speed означает скорость вентилятора, это относится к охлаждению. И если в Fan Speed GPU показываются проценты, то это означает на сколько работает система охлаждения видеокарты. Просто могут быть не проценты а RPM — это количество оборотов вентилятора. Вот например прога от AMD Radeon Settings и тут есть такой вот показатель, правда просто Fan Speed, без GPU, в общем смотрите:

А вот прога снова GPU Tweak II и тут есть Fan Speed и как я понимаю можно регулировать в процентах:

Вот такие дела ребята, надеюсь что инфа была вам полезна, ну а если что не так, то извините! Удачи вам и пусть у вас все будет хорошо!

Процессоры и графические ускорители очень похожи, они оба сделаны из сотен миллионов транзисторов и могут обрабатывать тысячи операций за секунду. Но чем именно отличаются эти два важных компонента любого домашнего компьютера?

В данной статье мы попытаемся очень просто и доступно рассказать, в чем отличие CPU от GPU. Но сначала нужно рассмотреть два этих процессора по отдельности.

CPU (Central Processing Unit или же Центральное Процессорное Устройство) часто называют «мозгом» компьютера. Внутри центрального процессора расположено около миллиона транзисторов, с помощью которых производятся различные вычисления. В домашних компьютерах обычно устанавливаются процессоры, имеющие от 1 до 4 ядер с тактовой частотой приблизительно от 1 ГГц до 4 ГГц.

Процессор является мощным, потому что может делать все. Компьютер способен выполнить какую-либо задачу, так как процессор способен выполнить эту задачу. Программистам удалось достичь этого благодаря широким наборам инструкций и огромным спискам функций, совместно используемых в современных центральных процессорах.

Что такое GPU?

GPU (Graphics Processing Unit или же Графическое Процессорное Устройство) представляет собой специализированный тип микропроцессора, оптимизированный для очень специфических вычислений и отображения графики. Графический процессор работает на более низкой тактовой частоте в отличие от процессора, но имеет намного больше процессорных ядер.

Также можно сказать, что GPU — это специализированный CPU, сделанный для одной конкретной цели — рендеринг видео. Во время рендеринга графический процессор огромное количество раз выполняет несложные математические вычисления. GPU имеет тысячи ядер, которые будут работать одновременно. Хоть и каждое ядро графического процессора медленнее ядра центрального процессора, это все равно эффективнее для выполнения простых математических вычислений, необходимых для отображения графики. Этот массивный параллелизм является тем, что делает GPU способным к рендерингу сложной 3D графики, требуемой современными играми.

Отличие CPU и GPU

Графический процессор может выполнить лишь часть операций, которые может выполнить центральный процессор, но он делает это с невероятной скоростью. GPU будет использовать сотни ядер, чтобы выполнить срочные вычисления для тысяч пикселей и отобразить при этом сложную 3D графику. Но для достижения высоких скоростей GPU должен выполнять однообразные операции.

Возьмем, например, Nvidia GTX 1080. Данная видеокарта имеет 2560 шейдерных ядер. Благодаря этим ядрам Nvidia GTX 1080 может выполнить 2560 инструкций или операций за один такт. Если вы захотите сделать картинку на 1% ярче, то GPU с этим справится без особого труда. А вот четырехъядерный центральный процессор Intel Core i5 сможет выполнить только 4 инструкции за один такт.

Тем не менее, центральные процессоры более гибкие, чем графические. Центральные процессоры имеют больший набор инструкций, поэтому они могут выполнять более широкий диапазон функций. Также CPU работают на более высоких максимальных тактовых частотах и имеют возможность управлять вводом и выводом компонентов компьютера. Например, центральный процессор может интегрироваться с виртуальной памятью, которая необходима для запуска современной операционной системы. Это как раз то, что графический процессор выполнить не сможет.

Вычисления на GPU

Даже несмотря на то, что графические процессоры предназначены для рендеринга, они способны на большее. Обработка графики — это только вид повторяющихся параллельных вычислений. Другие задачи, такие как майнинг Bitcoin и взломы паролей полагаются на одни и те же виды массивных наборов данных и простых математических вычислений. Именно поэтому некоторые пользователи используют видеокарты для не графических операций. Такое явление называется GPU Computation или же вычисления на GPU.

Выводы

В данной статье мы провели сравнение CPU и GPU. Думаю, всем стало понятно, что GPU и CPU имеют схожие цели, но оптимизированы для разных вычислений. Пишите свое мнение в комментариях, я постараюсь ответить.

Настройка производительности графических процессоров с использованием…

В этом документе представлена информация о вариантах, доступных в Radeon ватт, который обеспечивает возможность индивидуальной настройки производительности графических адаптеров (GPU).

Обзор Radeon Вт

Radeon ватт, впервые представленная в 16.6.2 по выпуска программного обеспечения Radeon Crimson. Она обеспечивает производительность и мониторинг поведения графического процессора, позволяя выполнять тонкую настройку игровых возможностей для различных приложений.

Этот документ поможет вам выполнить все этапы настройки графического процессора с помощью Radeon ватт. Важно отметить, что для настройки графического процессора требуется продвинутый уровень технических знаний. Для большинства пользователей настройки оборудования, используемые по умолчанию для графических ПРОЦЕССОРов и графической памяти, обеспечивают максимальную производительность для большинства приложений.

ПримечаниеПри ручном перерасходе лучше не Оверклокинг за небольшое увеличение, а затем проверить стабильность после каждой корректировки. Для этого лучше всего Заработайте 3D-игры и приложения, как это делается в течение нескольких часов. Если система становится нестабильной (например, вы можете столкнуться со сбоями, зависанием и/или графическим повреждением), вы должны вернуться к последним стабильным параметрам.

Требования Radeon Вт

Radeon ватт поддерживается в продукции на базе процессоров AMD Radeon R7 260 и выше. Рекомендуется всегда использовать новейший совместимый драйвер для графического процессора при конфигурировании Radeon ватт в системе на базе ОС Windows® .

Примечание
  1. Системная плата Radeon ватт не поддерживается в APU-графике или в графической системе AMD, которая была предварительно установлена в OEM-системах.
  2. Доступность определенных функций, реализованных в Radeon ватт, зависит от используемого графического процессора.

Конфигурирование Radeon ватт

Чтобы получить доступ к Radeon ватт, откройте настройки Radeon, щелкнув правой кнопкой мыши на рабочем столе и выбрав настройки AMD Radeon.


Перейдите на вкладку «игры».


Нажмите «глобальные настройки».


Перейдите на вкладку Global ватт ватт и прочтите условия использования. Если вы согласны с настоящими условиями, нажмите «принять», чтобы продолжить.

ПримечаниеГАРАНТИЯ НА ПРОДУКЦИЮ AMD НЕ ВКЛЮЧАЕТ В СЕБЯ УБЫТКИ, ВЫЗВАННЫЕ ПРЕВЫШЕНИЕМ ТАКТОВОЙ ЧАСТОТЫ, ДАЖЕ ЕСЛИ ФУНКЦИЯ ПЕРЕТАКТА ВКЛЮЧЕНА С АППАРАТНЫМ ОБЕСПЕЧЕНИЕМ И/ИЛИ ПРОГРАММНЫМ ОБЕСПЕЧЕНИЕМ AMD.

После принятия условий использования вы можете начать настраивать настройки Radeon ватт.

ПримечаниеВ конфигурациях AMD CrossFire к каждому графическому процессору в системе должны быть применены настройки Radeon ватт. Вы можете выбрать каждый графический процессор, перейдя на вкладки графического процессора, как отмеченные далее.

ПримечаниеЕсли после настройки основного графического процессора варианты, расположенные под вкладками (-ы) для оставшихся графических процессоров, отключаются (без серого цвета), вам может потребоваться вывести на работу процессор (ы). Это можно сделать, перейдя между вкладками.

В следующем разделе описаны варианты, реализованные в Radeon Вт, которые позволяют настраивать и контролировать производительность графического процессора. В их число входят:

  • Профили производительности/ватт
  • Контроль настройки
  • Управление тактовой частотой
  • Контроль частоты памяти
  • Время памяти
  • Управление напряжениями
  • Температура вентиляторов &
  • Нулевую RPM
  • Минимальный уровень акустического ограничения
  • Ограничение мощности
  • Гистограмм
ПримечаниеИзменения Global ватт будут применены ко всем 3D-приложениям. Если вы хотите создать индивидуальный профиль Radeon Вт для конкретных 3D-приложений, обратитесь к разделу: как настроить настройки AMD Radeon, чтобы добиться оптимального игрового процесса (URL-адрес: https://www.amd.com/en/support/kb/faq/dh-012).
ПримечаниеИзменения, внесенные в условиях Global Ватт или в профиль приложения, вступают в силу незамедлительно. Любые изменения, внесенные в настройки в Radeon ватт, сохраняются только после нажатия кнопки «применять», расположенной в правом верхнем углу интерфейса Radeon ватт.

 

Профили производительности/ватт

В Radeon ватт имеется четыре профиля производительности/ватт, которые позволяют настраивать производительность графического процессора и прорисовку энергии. Эта функция в настоящее время поддерживается графикой Radeon™ RX Vega RX.

Четыре профиля производительности/ватт:

  • Энергосбережение
  • Распределяют
  • Настройка

Выберите профиль Performance (Мощность/Ватт) с помощью ползунка, а затем нажмите «Apply» (Apply).

ПримечаниеПрофили производительности/ватт поддерживаются только в графической системе Radeon™ RX Vega-Series.

 

Контроль настройки

Управление настройками становится доступным при использовании пользовательского профиля Performance (Мощность/Ватт) и предлагает следующие варианты:

  • Вручную
  • Графический процессор с автоматической заменой вольт
  • Автоматический Оверклокинг графический процессор
  • Автоматическая Оверклокинг памяти

Выберите профиль контроля настройки, прочитайте предупреждающее сообщение, нажмите «продолжить», чтобы добавить профиль, или «Отмена», чтобы вернуться к предыдущему меню.

ПримечаниеУправление настройками поддерживается только в графике Radeon™ RX Vega RX.

 

Управление тактовой частотой

Radeon ватт позволяет настраивать семь состояний тактовой частоты производительности графического процессора, которые определяются с помощью уникальных тактовой частоты и напряжения. Используя контроль частоты синхронизирующих импульсов, вы можете настроить каждый из этих семи состояний на личный выбор.

  • Состояние синхронизирующих импульсов 0 является самым низким энергопотреблением и не может быть изменено.
  • Тактовая частота 7 — это самая высокая тактовая частота графического процессора, которая обеспечивает максимальную производительность.


Управление тактовой частотой можно регулировать разными способами. В их число входят:

  1. Простая контрольная кривая — режим по умолчанию позволяет одновременно выполнять корректировки всех состояний часов. Передвиньте ползунок частоты вправо или влево, чтобы увеличить или уменьшить частоту графического процессора соответственно. Этот ползунок будет регулировать тактовую частоту с шагом в 0,5%.

  2. Управление кривой динамической частоты-Динамический режим можно изменить, выбрав параметр «частота» и изменив его на динамический. Динамическое управление часами обеспечивает индивидуальную настройку каждого состояния таймера, обеспечивая более высокую контроль над производительностью.

    Установите требуемую частоту и нажмите «Apply» (Apply). В этом примере базовый процессор по умолчанию для состояния 7 для этого графического процессора 1340Mhz и был увеличен до 1350Mhz.

    ПримечаниеУвеличение тактовой частоты может повлиять на стабильность работы и может потребовать увеличения напряжения, чтобы стабилизировать систему. Управление напряжениями рассматривается в следующем разделе настоящего документа.


Контроль частоты памяти

Функция контроля частоты памяти использует только одно состояние (статус 2). В режиме по умолчанию настройте частоту памяти в увеличенном объеме 5Mhz с помощью ползунка.

Установите требуемую частоту и нажмите «Apply» (Apply).


Динамическое управление часами позволяет вводить желаемую частоту вручную. В данном примере основной такт по умолчанию для состояния 1 для этого графического процессора — 2000Mhz, и он был увеличен до 2005Mhz.

ПримечаниеУправление частотой памяти не поддерживается в процессорах AMD Radeon Pro Duo, Radeon R9 Fury Series и Radeon R9 серии Nano.

Время памяти

Синхронизация памяти сокращает время задержки памяти в зависимости от выбранного уровня. Более низкий уровень задержек памяти может повысить производительность некоторых приложений.


По времени памяти есть три варианта:

  1. Автоматические — по умолчанию — времена BIOS
  2. Уровень времени памяти 1
  3. Уровень времени памяти 2

Нажмите «время работы с памятью», чтобы переключаться между уровнями времени памяти Нажмите «Apply» (Apply), чтобы сохранить изменения.

ПримечаниеВремя обработки памяти доступно только для RX400, RX500 и RX серии Vega для графики

Управление напряжениями

Контроль напряжения означает степень напряжения, применяемого к графическому процессору в каждом энергографическом состоянии.

Управление напряжениями может помочь стабилизировать графический процессор при увеличении тактовой частоты. Это потребует большего энергопотребления и повышает тактовую частоту, обеспечивая более высокую скорость вращения вентилятора и шум вентилятора.

Напряжение для частоты графического процессора можно изменить, выбрав опцию контроль напряжения и изменив ее на ручной. Ручное управление напряжениями позволяет настраивать напряжение для каждого состояния процессора.

ПримечаниеВ ручном режиме лучше всего увеличить напряжение на небольшие, а затем проверить стабильность. Это лучше сделать, запустив обычные игры и 3D-приложения с предпочтительными настройками.
ПримечаниеЕсли внесенные выше корректировки приводят к нестабильной работе, можно восстановить заводские настройки по умолчанию, нажав кнопку «Сброс», расположенную в правом верхнем углу.
ПримечаниеПоказания напряжения не связаны с часами графического процессора и памяти. Оба варианта устанавливаются независимо друг от друга.

Установите требуемое напряжение и нажмите «Apply» (Apply). В данном примере значение напряжения по умолчанию для состояния 7 равно 1150, и оно увеличено до 1175.


Для управления напряжением на память используется только одно состояние (статус 2).

Напряжение для частоты памяти можно изменить, выбрав опцию контроль напряжения и изменив ее на ручной. Ручное управление напряжениями обеспечивает возможность настройки напряжения для состояния процессора 2.

Установите требуемое напряжение и нажмите «Apply» (Apply). В данном примере напряжением по умолчанию для штата 2 является 950, и оно увеличено до 1000.

Температура вентиляторов &

Производительность и температура вентиляторов автоматически управляются графическим процессором и настраиваются в соответствии с температурой, в зависимости от текущей рабочей нагрузки.

По умолчанию переключатель скорости/температуры настроен на автоматический режим.

Нажмите на выключатель «скорость/температура», чтобы переключиться в режим «вручную» и обеспечить контроль над скоростью вращения вентилятора и рабочими нагрузками графического процессора при запуске 3D-приложения (при загрузке).

В ручном режиме предлагается пять настраиваемых состояний с помощью кривой вентиляторов с графическим процессором. Каждое состояние соответствует целевой скорости вентилятора графического процессора и температуре графического процессора. Скорость вращения вентилятора измеряется в RPM (революция в минуту), а чем выше скорость вращения вентилятора, тем больше устройств охлаждения, что может привести к увеличению шума вентилятора.

Каждая точка в кривой может быть перемещается вверх/вниз, чтобы установить скорость вентилятора графического процессора и оставить ее в правильном положении в соответствии с требуемой температуре процессора.

Нулевую RPM

Нулевое значение RPM обеспечивает бесшумное выполнение операций в любое время, когда графический процессор находится в светлых нагрузках и включен по умолчанию. Вентиляторы графического процессора должны вращаться по мере роста графического процессора при загрузке системы и увеличении температуры.

Минимальный уровень акустического ограничения

Минимальный уровень акустического ограничения позволяет пользователю установить базовую частоту, в которой будет работать графический процессор. Если тактовая частота графического процессора (МГц) падает после установленного минимального значения акустического ограничения, скорость вращения вентилятора увеличится по мере необходимости, чтобы регулировать температуру графического процессора, чтобы можно было поддерживать базовую частоту.

Ограничение мощности

Ограничение мощности контролирует уровень мощности, посылаемой на графический процессор. Увеличение этого значения может повысить производительность графического процессора, позволяя графическому процессору сохранять максимальную тактовую частоту (состояние 7).

Ограничение энергопотребления может быть увеличено или уменьшено на +/-20-100% и должно быть установлено на максимальное значение при увеличении тактовой частоты процессора или памяти.

ПримечаниеОграничение мощности% зависит от того, какой графический процессор вы используете.

 

Гистограмм

Гистограмма обеспечивает мониторинг и сбор данных о текущих, средних и пиковых действиях графического процессора, температуре, скорости вентилятора и тактовой частоте графического процессора.

Наведите указатель мыши на диаграмму, чтобы просмотреть подробные сведения об определенном момент времени, как показано ниже.

 

Профили Radeon Вт

После того как вы приступите к оптимальной конфигурации Radeon ватт, настройки можно сохранить в качестве профиля.

Начиная с программного обеспечения Radeon адреналин Edition, теперь можно создавать и загружать множество профилей в зависимости от использования системы — например:

  • Профиль для высокопроизводительных игр с более высокими ограничениями энергопотребления и скоростью вращения вентиляторов, которые обеспечивают более высокую тактовую частоту.
  • Профиль для снижения энергопотребления и скорости вращения вентиляторов, что приводит к снижению температуры и скрытой системе.

Кроме того, профили Radeon Вт также могут быть созданы на уровне каждого приложения, предоставляя тот же набор настраиваемых параметров, как описано выше, с помощью профилей игровых приложений. При загрузке конкретного профиля приложения глобальные настройки будут переопределяться во время работы приложения.

Чтобы загрузить или сохранить профиль Radeon Ватт (глобальные или индивидуальные приложения), нажмите кнопку «Загрузить профиль» или «сохранить профиль». Профили (сохраненные в формате XML) по умолчанию хранятся в следующем расположении: : \Усерс\ \Аппдата\локал\амд\кн

Информацию о том, как создать профиль приложения, см. в следующей области базы знаний: « Создание профилей приложений».

Восстановление настроек по умолчанию

Если вы хотите вернуться к настройкам по умолчанию, вы можете восстановить настройки глобальных или индивидуальных приложений Radeon ватт в соответствии со значениями по умолчанию, нажав кнопку Reset (пере) в правом верхнем углу глобального или отдельного меню Radeon ватт.

Radeon присесть

Radeon присесть — это функция энергосбережения, которая динамически регулирует частоту кадров в зависимости от движения ваших символов и камеры в игре2.

По мере уменьшения движения присесть Radeon сокращает частоту геймплей частоты, экономит энергию и понижает температуру графического процессора.

Сначала необходимо активировать Radeon присесть в меню «игровые/глобальные настройки»/«глобальные настройки».

Во время геймплейи Radeon присесть можно включать и выключать, нажимая назначенное сочетание клавиш. Сочетание клавиш можно изменить на другое, выбрав присесть клавишу «», а затем нажав нужную клавишу.

Для получения дополнительной информации о Radeon присесть и списке поддерживаемых игр перейдите на страницу «технология Radeon присесть».


После того как Radeon присесть был активирован глобально, можно настроить Radeon присесть на уровне каждого приложения в рамках профиля приложения:

  • Присесть -активировать Radeon присесть для текущей игры
  • ПРИСЕСТЬ min — минимальное значение частоты кадров для присесть для работы в пределах (минимальное значение составляет 30 кадров в секунду, значение по умолчанию — 70).
  • ПРИСЕСТЬ Max — максимальная частота кадров для присесть для работы (максимальная частота в 300 кадров в секунду, значение по умолчанию — 144)

Информацию о том, как создать профиль приложения, см. в следующей области базы знаний: « Создание профилей приложений».

1 При использовании любого процессора AMD, в том числе без ограничений, изменение тактовой частоты/множителей или значений времени/напряжения памяти, для работы за пределами их складских спецификаций будет аннулирована любая применимая гарантия на продукцию AMD даже в том случае, если такая перечисленость включена по аппаратному и/или программному обеспечению AMD. Это может также аннулировать гарантии, предлагаемые производителем системы или розничным продавцом. Пользователи считают все риски и обязательства, которые могут возникать из-за превышения тактовой частоты процессоров AMD, включая отсутствие каких-либо ограничений, отказов или ущерба для аппаратного обеспечения, снижения производительности системы и/или потери данных, повреждения или уязвимости.

2 Узнайте больше на сайте https://www.AMD.com/en/Technologies/Radeon-Software-Chill

* Корпорация Intel предложите вам материалы на сторонних веб-сайтах для вашего удобства и может предоставить ссылки на дополнительные сайты сторонних компаний. Предоставление такого контента и/или ссылок означает только предложения и не должно считаться одобрением или рекомендацией для выполнения каких-либо конкретных действий. Выполнение действий, рекомендованных сторонними поставщиками, может привести к неправильной работе, повреждению системной платы или процессора или сокращению срока службы продукции. Корпорация Intel не несет никакой ответственности в отношении использования вами сторонних компаний или материалов, а также отказывается от прямых или косвенных гарантий, связанных с сайтами или материалами сторонних компаний. Корпорация Intel не контролирует и не проверяет сторонние материалы или веб-сайты сторонних компаний, упоминаемые на веб-сайтах других компаний. Вы должны посетить веб-сайт, на котором есть ссылка, и подтвердить точность данных, указанных в ссылке.

Как пользоваться ASUS GPU Tweak II

Обладатели видеокарт от Asus могут воспользоваться возможностями утилиты ASUS GPU Tweak II. Установить GPU Tweak 2 можно непосредственно с диска драйверов и утилит или же с официального сайта производителя. Стоит сказать, что для комфортной работы придётся подучить английский язык, так как русский язык интерфейса в официальной версии отсутствует.

Эта статья расскажет как пользоваться ASUS GPU Tweak II. Обладателям последней версии операционной системы рекомендуем загрузить обновлённую версию программы. К основным особенностям и возможностям утилиты относят средства оптимизации системы, настройки скорости вентиляторов и собственно простой разгон графического адаптера.

ASUS GPU Tweak II Windows 10

Оптимизация системы

В пользователей есть возможность с помощью утилиты ASUS GPU Tweak II выполнить оптимизацию системы под управлением Windows 10. Доступные средства оптимизации будут полезны только тем, в кого установленные процессоры среднего ценового сегмента. ASUS GPU Tweak II позволяет сделать настройку визуальных эффектов, так званого быстродействия Windows 10, отключить ненужные службы и процессы и выполнить дефрагментацию диска.

  1. Перейдите в Simple Mode, и нажмите кнопку Gaming Booster — BoostMySystem.
  2. В окне оптимизации системы пользователя нажмите Start для запуска процесса.

Настройка вентиляторов

ASUS GPU Tweak II обладает широкими возможностями по разгону, а значит и настройке вращения вентиляторов. Все мощные видеокарты с современным охлаждением по умолчанию попросту отключают вентиляторы. Видеокарта охлаждается без активного охлаждения до определённых температур, после чего включаются вентиляторы.

Перейдите в Advanced Mode и в пункте Fan Speed выберите User Define. Дальше в зависимости от температуры графического чипа установите нужное значение скорости вентиляторов.

Дополнительно обратите внимание на переключатель 0dB Fan, который по умолчанию включён. Если же отключить его, все вентиляторы начнут вращаться на минимальных оборотах охлаждая Вашу видеокарту даже в режиме простоя. В некоторых ситуациях переключатель только включает обороты, а выключить не может (вероятно из-за конфликта с приложением настроек Radeon, в которых также реализован похожий функциональность).

Разгон видеокарты

Что касается разгона видеокарты по памяти, то всё делается действительно очень просто. Первым делом стоит обратить внимание на различные профили работы доступные по умолчанию. В пространстве пользователя есть возможность выбрать между OC Mode, Gaming Mode и Silent Mode. Основные различия между текущими профилями содержатся в базовой тактовой частоте.

Важно! Разгон видеокарты значительно повышает рабочую температуру графического чипа. Перед разгоном несколько раз подумайте, стоит ли такой риск прибавки всего нескольких кадров в секунду в любимой игре. На горячих чипах такой риск не всегда оправдывается, из-за больших температур. Смотрите также: Как узнать температуру видеокарты в Windows 10.

Для получения большего количества кадров в секунду в играх нужно повышать рабочую частоту ядра и общую частоту памяти. Сильно увеличить значения частот без увеличения вольтажа не получиться. Плюсом утилиты ASUS GPU Tweak II есть простота повышения частоты ядра, повышая частоту ядра автоматически увеличивается вольтаж.

На сайте производителя рекомендуется перед началом разгона перетянуть ползунки GPU Voltage и Power Target вправо до максимума. После чего уже немного увеличивать значения параметров GPU Clock и Memory Clock. Мы же рекомендуем в процессе разгона немного повышать все доступные параметры, и сразу же проверять стабильность работы видеокарты в FurMark.

Сначала ознакомитесь с инструкцией: Как пользоваться программой FurMark. А также стоит отметить наличие модифицированной версии программы FurMark от Asus. Независимо от модификации, главное понимать, как выполнить тестирование и на какие параметры в процессе тестирования стабильности нужно обращать внимание.

Заключение

Помимо основных возможностей по разгону видеокарты и оптимизации системы в пользователя есть возможность посмотреть полные характеристики графического адаптера и включить мониторинг параметров. Обновлённая версия программы получила несколько изменённый интерфейс, по факту с доступными ранее возможностями.

КРАТКОЕ РУКОВОДСТВО ПО FIRESTORM | ZOTAC

КРАТКОЕ РУКОВОДСТВО ПО FIRESTORM

2019.09.09 1:00 AM

Приветствуем новых пользователей!

Если вам впервые довелось приобрести/использовать видеокарту ZOTAC/ZOTAC GAMING, то вы обратились точно по адресу. Мы расскажем, как выжать из вашей видеокарты максимум. Читайте далее, чтобы узнать больше о нашей утилите настройки Firestorm. Чем больше вы знаете, тем больше сможете выжать из вашей видеокарты и тем лучше будут ваши игровые впечатления. Начнем!

ЗАГРУЗКА FIRESTORM

Первым делом убедитесь, что вы установили последнюю версию программного обеспечения FireStorm на ваш компьютер:

— Для владельцев ZOTAC GAMING GeForce RTX 30 Series

ЗАГРУЗКА ВАШЕЙ ВЕРСИИ

— Для владельцев ZOTAC GAMING GeForce RTX 20 Series & GTX 16 Series

ЗАГРУЗКА ВАШЕЙ ВЕРСИИ

— Для владельцев ZOTAC GeForce GTX 10 Series & GT Series

ЗАГРУЗКА ВАШЕЙ ВЕРСИИ

 

 

НАСТРОЙКИ GPU

Запустите FireStorm, чтобы получить доступ к самому свежему, современному и простому пользовательскому интерфейсу. Будет еще проще, если мы отметим три важные зоны разными цветами:

 

Зеленая зона (по середине) отвечает за тактовые частоты GPU (сверху) и памяти (снизу).

Синяя зона (слева) показывает температуру GPU, скорость вращения вентилятора и ее настройки.

Наконец, красная зона (справа) – это область настроек, которая понадобится, чтобы максимизировать производительность.

 

РЕГУЛИРОВКА ПРОФИЛЕЙ ВЕНТИЛЯТОРОВ

Для настройки профилей вентиляторов есть вкладки «АВТО» (по умолчанию), «ВРУЧНУЮ» и «ПРОДВИНУТАЯ».

 

 

«АВТО» – заводские настройки по умолчанию.

Выбор варианта «ВРУЧНУЮ» позволит вам устанавливать скорость вращения вентилятора на видеокарте (в %). Эта настройка диктует вентилятору скорость, с которой он должен вращаться, вне зависимости от температуры видеокарты.

 

Розовое поле слева позволит воспользоваться преимуществами активного управления вентилятором (если это поддерживается моделью), которое доступно в линейке RTX. Так можно установить индивидуальную скорость вращения для каждого вентилятора. В случае видеокарт с тремя вентиляторами левый и центральный объединены в группу 1, а правый выделен в группу 2.

Если активное управление вентиляторами доступно для вашей видеокарты, вы сможете выбрать Группу 1 или Группу 2. В противном случае выбор будет недоступен. Выберите группу (если доступно) и сдвиньте ползунок влево или вправо, чтобы выставить желаемый процент скорости вращения вентилятора. Настройки будут применены автоматически.

 

ТОНКАЯ НАСТРОЙКА

В блоке справа вы сможете настроить тактовую частоту GPU, напряжение (если доступно), тактовую частоту памяти, мощность, целевую температуру GPU и тактовую частоту монитора. Разблокировать напряжение GPU, мощность, целевую температуру и тактовую частоту монитора можно, нажав на значок «блокировка».

 

Но помните, что производительность при разгоне различается в зависимости от модели вашей видеокарты и качества кремниевой пластины. Стоит начинать настройку с увеличения тактовой частоты с небольшим шагом. Если слишком увлечетесь, то может произойти сбой видеокарты или всей системы. Так что всегда действуйте с осторожностью. Вновь и вновь делайте проверки, чтобы добиться оптимального результата.

При выборе вкладки «ПРОДВИНУТАЯ» появится всплывающее окно с кривой скорости вентилятора. Кривая скорости вентилятора без вмешательства выглядит как лестница, ведущая снизу слева вверх вправо, как это показано выше (учтите, это не профиль вентилятора видеокарты по умолчанию). Это более продвинутая версия настроек «ВРУЧНУЮ» для большей точности.

 

На примере, приведенном выше (исключительно в иллюстративных целях), вы можете видеть, что вентиляторы работают на 0% до момента, когда температура видеокарты достигает 60 градусов. В этот момент они переключаются на 70%. При температуре 100 градусов вентиляторы работают на 100%… Но мы гарантируем, что видеокарты ZOTAC никогда не достигают такого значения. В случае видеокарт с поддержкой возможности остановки вентиляторов FREEZE она будет работать даже в неидеальных условиях.

Хотя имейте в виду, что не все модели оснащены функцией FREEZE. Если ваш вентилятор не поддерживает ее, даже при установке скорости вращения на 0, он просто будет вращаться максимально медленно, насколько это возможно. Не забудьте нажать «ПРИМЕНИТЬ», когда настроите кривую вращения вентилятора.

 

OC SCANNER

Одна из самых новых функций, которая доступна для видеокарт ZOTAC GAMING GeForce RTX series – это OC SCANNER. Это новая возможность позволяет увеличить производительность буквально в один клик. Процесс сканирования занимает 5-10 минут, так что на это время оставьте свою систему в покое. Как только сканирование завершится, ваша видеокарта начнет работать быстрее.

НАСТРОЙКИ ПРОГРАММЫ

Когда вы нажмете на значок настроек в правом верхнем углу (шестеренка), то попадете в меню с кнопками «МОНИТОРИНГ», «НАСТРОЙКИ», «ПОМОЩЬ» и «ИНФОРМАЦИЯ».

 

 

Раздел «МОНИТОРИНГ» открывает доступ к полезной информации о состоянии вашей видеокарты: скорости процессора, тактовой частоте памяти, напряжению, температуре и % использования GPU и памяти GPU.

 

 

Кнопка «НАСТРОЙКИ» позволит вам выбрать, хотите ли вы запускать FireStorm при старте системы, запускать в свернутом виде, разгонять при запуске, другими словами, при запуске FireStorm будет применяться последняя сохраненная конфигурация. Здесь же можно настроить прозрачность интерфейса утилиты FireStorm, чтобы вы могли видеть то, что находится за ним.

 

 

В меню «ПОМОЩЬ» мы добавили несколько полезных советов по разгону вашей видеокарты и управлению скоростью вращения вентилятора.

 

Более подробно все описано в разделе «ИНФОРМАЦИЯ». Проверьте, установили ли вы самую свежую версию драйверов и BIOS для своей видеокарты, а также узнайте технические характеристики вашей видеокарты.

ЭКСПЕРИМЕНТЫ С ПОДСВЕТКОЙ SPECTRA

Если вы без ума от RGB-подсветки видеокарты, вы по достоинству оцените возможность создать собственную схему освещения в разделе SPECTRA (красная область на рисунке ниже). Продвинутая светодиодная система освещения позволит вам создать собственную цветовую схему для вашей видеокарты с помощью обновленной утилиты FireStorm. (Пожалуйста, учтите, что интерфейс на иллюстрации выше будет доступен только при использовании моделей RTX AMP Extreme / AMP Extreme Core.)

 

ХОЛОСТОЙ И АКТИВНЫЙ

Выберите «ХОЛОСТОЙ» или «АКТИВНЫЙ» в меню сверху. Лучше всего использовать разные световые эффекты для разных режимов, так вы сможете сразу видеть, когда видеокарта работает, а когда – нет.

АКТИВНЫЙ режим – видеокарта работает по полной

ХОЛОСТОЙ режим – видеокарта находится в режиме ожидания

 

ПАЛИТРА ВАШЕГО СТИЛЯ

 

По умолчанию светодиоды голубого цвета, но вы сможете настроить от одного до семи цветов – красный, желтый, пурпурный, зеленый, голубой, синий и белый. Или же создать уникальный оттенок из широкого ассортимента.

 

 

Если у вас видеокарта RTX AMP Extreme / AMP Extreme Core, вы также можете назначить эффекты разным зонам в ИНДИВИДУАЛЬНОМ режиме. Проще говоря, СИНХРОНИЗИРОВАТЬ подсветку всех зон в один клик.

Яркость и уровень скорости также можно изменить, когда вы выбираете новый эффект или цвет.

 

РЕЖИМЫ ОСВЕЩЕНИЯ

Список доступных в SPECTRA эффектов зависит от модели вашей видеокарты, однако вы в любом случае сможете насладиться многообразием настроек. Вот список доступных вам базовых эффектов:

СТАТИКА – постоянное однотонное свечение

ДЫХАНИЕ – затемнение и высветление

ВСПЫШКА – включение и выключение

ВОЛНА – непрерывный переход из одного цвета в другой

ЦИКЛ – затемнение и высветление со сменой цветов

 

Серия ZOTAC GAMING GeForce RTX, модели AMP Extreme и AMP Extreme Core оснащены более продвинутой системой подсветки SPECTRA 2. 0, которая поддерживает 7 СТАНДАРТНЫХ ЭФФЕКТОВ и 5 АНИМИРОВАННЫХ ЭФФЕКТОВ. Вы сможете наслаждаться не только акцентированным логотипом, но и впечатляющей яркой подсветкой передней стороны.

 

СТАНДАРТНЫЕ ЭФФЕКТЫ

СТАТИКА – постоянное однотонное свечение

ДЫХАНИЕ – затемнение и высветление

ИСЧЕЗНОВЕНИЕ – непрерывный переход из одного цвета в другой

МИГАНИЕ – включение и выключение

МИГАЛКА – включение и выключение в синем и красном цветах

СИЯНИЕ – изменение яркости в соответствии с музыкой и звуками системы

СЛУЧАЙНО – россыпь искр

 

АНИМИРОВАННЫЕ ЭФФЕКТЫ

СКОЛЬЖЕНИЕ – движение светового следа

РАДУГА – непрерывный радужный перелив

БЕГУЩАЯ СТРОКА – поток света, движущийся по кругу

КАПЕЛЬ – искра, движущаяся по кругу

ТАНЕЦ – пульсация в такт музыке и звукам системы

Under ANIMATED EFFECTS, the arrows at the bottom allow you to change the direction of how the lights move.

 

Стрелки в разделе «АНИМИРОВАННЫЕ ЭФФЕКТЫ» позволят изменить направление движения света.

 

Мы также добавили ряд интересных функций, например, возможность индивидуально настраивать каждую видеокарту при SLI-подключении, так что вам будет еще интереснее, если в вашей системе будут установлены две видеокартыNVLink SLI-ready.

 

НЕ ЗАБУДЬТЕ СОХРАНИТЬСЯ, СЛОВНО ВЫ УЖЕ ИГРАЕТЕ

Последнее по порядку, но не по значению: после того, как вы прочитали эту длинную статью, после того, как вложили столько усилий в настройку, едва ли вам захочется переделывать все еще раз. Так что перед тем, как переходить к игре, не забудьте СОХРАНИТЬ свои ПРОФИЛИ кнопкой внизу. В следующий раз вам достаточно будет нажать ЗАГРУЗИТЬ, чтобы восстановить желаемые настройки.

 

Развлекайтесь с утилитой FireStorm! И обязательно дайте нам знать, если вам потребуется какая-то Поддержка!

Как определяется GPU и использование памяти в результатах nvidia-smi?



В настоящее время я использую инструмент, поставляемый с драйвером NVIDIA ‘nvidia-smi’ для мониторинга производительности на GPU. Когда мы используем «nvidia-smi-a», он будет давать информацию о текущей информации GPU, включая использование ядра GPU и памяти, температуру и так далее:

==============ЖУРНАЛ NVSMI==============

Timestamp : Вторник

22 февраля 22:39:09 2011 г.

версия драйвера : 260.19.26

GPU 0:

    Product Name            : GeForce 8800 GTX
    PCI Device/Vendor ID    : 19110de
    PCI Location ID         : 0:4:0
    Board Serial            : 211561763875
    Display                 : Connected
    Temperature             : 55 C
    Fan Speed               : 47%
    Utilization
        GPU                 : 1%
        Memory              : 0%

Мне любопытно, как определяются GPU и использование памяти? Например, использование ядра GPU составляет 47%. это означает, что есть 47% из SMs активных рабочих? Или все GPU ядра заняты в 47% времени, в то время как другие 53% времени бездействуют? Для памяти использование означает отношение между текущей пропускной способностью и максимальной пропускной способностью, или отношение времени занятости в последней единице времени?

cuda gpu nvidia
Поделиться Источник fflower     23 февраля 2011 в 03:50

2 ответа


  • Несоответствие IDs между ‘nvidia-smi-L’ и cuDeviceGetName()

    Я запускаю эту команду в shell и получаю: C:\Users\me>nvidia-smi -L GPU 0: Quadro K2000 (UUID: GPU-b1ac50d1-019c-58e1-3598-4877fddd3f17) GPU 1: Quadro 2000 (UUID: GPU-1f22a253-c329-dfb7-0db4-e005efb6a4c7) Но в моем коде, когда я запускаю cuDeviceGetName (. ., ID) , где ID -это ID, заданное…

  • NVIDIA-smi GPU измерение производительности не имеет смысла

    Я использую Nvidia GTX Titan X для проведения эксперимента по глубокому обучению. Я использую nvidia-smi для мониторинга состояния работы GPU, но состояние perf (ormance), предоставленное инструментом, не имеет смысла. Я проверил руководство nvidia-smi, в нем говорилось следующее: Состояние…



5

В сообщении модератора на форумах NVIDIA говорится, что показатели использования GPU и использования памяти основаны на активности за последнюю секунду:

GPU занят-это фактически процент времени за последнюю секунду, когда SMs был занят, а использование памяти-это фактически процент пропускной способности, используемой в течение последней секунды. Полная статистика потребления памяти поставляется со следующим выпуском.

Поделиться Matt     28 марта 2011 в 13:11


Поделиться ackratos     15 мая 2014 в 09:25


Похожие вопросы:


Как получить максимальное использование памяти GPU для процесса на Ubuntu? (Для Nvidia GPU)

У меня есть сервер с установленным Ubuntu 16. 04. У него есть K80 GPU. Несколько процессов используют GPU. Некоторые процессы имеют непредсказуемое использование GPU, и я хочу надежно контролировать…


почему nvprof и nvidia-smi сообщают о разных результатах по мощности?

Я использовал nvprof и nvidia-smi для мониторинга рассеивания мощности GPU соответственно, но наблюдал разные результаты, суммированные в таблице ниже….


Как объяснить эту цифру о `nvidia-smi` с NVIDIA GPUs?

Я только что запустил simpleMultiGPU на сервере с двумя установленными K20m GPUs. А затем выполните команду nvidia-smi , чтобы показать состояние GPUs. В результате получается следующее: Проблемы…


Несоответствие IDs между ‘nvidia-smi-L’ и cuDeviceGetName()

Я запускаю эту команду в shell и получаю: C:\Users\me>nvidia-smi -L GPU 0: Quadro K2000 (UUID: GPU-b1ac50d1-019c-58e1-3598-4877fddd3f17) GPU 1: Quadro 2000 (UUID:…


NVIDIA-smi GPU измерение производительности не имеет смысла

Я использую Nvidia GTX Titan X для проведения эксперимента по глубокому обучению. Я использую nvidia-smi для мониторинга состояния работы GPU, но состояние perf (ormance), предоставленное…


nvidia-smi показывает использование GPU, когда он не используется

Я запускаю tensorflow на GPU id 1 с помощью export CUDA_VISIBLE_DEVICES=1 , все в nvidia-smi выглядит хорошо, мой процесс python работает на gpu 1, память и энергопотребление показывают, что GPU 1…


компания NVIDIA-SMI-на летучих GPU-использование объяснений?

Я знаю, что nvidia-smi -l 1 будет давать GPU использование каждую секунду (аналогично следующему). Однако я был бы признателен за объяснение того, что на самом деле означает Volatile GPU-Util . Это…


NVIDIA-SMI не удалось. Может ли’nt общаться с драйвером Nvidia

Я запускаю экземпляр cloud на узле gpu. Я установил CUDA и nvidia-smi показал детали драйвера, утлилизацию памяти. Через пару дней я столкнулся с этой ошибкой «NVIDIA-SMI потерпел неудачу,…


nvidia-smi не отображает использование памяти

Я хочу использовать видеокарту NVIDIA-SMI на монитор моего GPU для моих проектов machine-learning/ AI. Однако, когда я запускаю nvidia-smi в моем cmd, git bash или powershell, я получаю следующие…


В чем разница между использованием памяти nvidia-smi и использованием памяти GPU?

Например, при выполнении команды nvidia-smi отображается: В чем разница между Memmory-Usage и GPU Memory Usage ?

Развертывание графических устройств с помощью vGPU RemoteFX

  • Чтение занимает 4 мин

В этой статье

Область применения: Windows Server 2016, Microsoft Hyper-V Server 2016Applies to: Windows Server 2016, Microsoft Hyper-V Server 2016

Примечание

Из соображений безопасности процессор RemoteFX vGPU по умолчанию отключен для всех версий Windows, начиная с обновления для системы безопасности за 14 июля 2020 г. Because of security concerns, RemoteFX vGPU is disabled by default on all versions of Windows starting with the July 14, 2020 Security Update. См. KB 4570006.To learn more, see KB 4570006.

Функция виртуальных машин для RemoteFX позволяет нескольким виртуальным машинам совместно использовать физический GPU.The vGPU feature for RemoteFX makes it possible for multiple virtual machines to share a physical GPU. Визуализация и вычисление ресурсов динамически используются в виртуальных машинах, что делает виртуальную машину RemoteFX пригодной для высокопроизводительных рабочих нагрузок, когда выделенные ресурсы GPU не требуются.Rendering and compute resources are shared dynamically among virtual machines, making RemoteFX vGPU appropriate for high-burst workloads where dedicated GPU resources are not required. Например, в службе VDI виртуальный графический процессор RemoteFX можно использовать для разгрузки затрат на визуализацию приложений в GPU, что приводит к снижению нагрузки на ЦП и улучшению масштабируемости служб. For example, in a VDI service, RemoteFX vGPU can be used to offload app rendering costs to the GPU, with the effect of decreasing CPU load and improving service scalability.

Требования к RemoteFX vGPURemoteFX vGPU requirements

Требования к системе узла:Host system requirements:

  • Windows Server 2016Windows Server 2016
  • Совместимый с DirectX 11,0 графический процессор с драйвером 1,2 WDDM, совместимым с курьером.A DirectX 11.0-compatible GPU with a WDDM 1.2-compatible driver
  • ЦП с поддержкой преобразования адресов второго уровня (SLAT)A CPU with Second Level Address Translation (SLAT) support

Требования к гостевым виртуальным машинам:Guest VM requirements:

Дополнительные рекомендации для гостевых виртуальных машин:Additional considerations for guest VMs:

  • Функции OpenGL и OpenCL доступны только в гостевых ОС Windows 10 или Windows Server 2016.OpenGL and OpenCL functionality is only available in guests running Windows 10 or Windows Server 2016.
  • DirectX 11,0 доступен только для гостей под Windows 8 или более поздней версии.DirectX 11.0 is only available for guests running Windows 8 or later.

Включить RemoteFX для виртуальных GPUEnable RemoteFX vGPU

Чтобы настроить виртуальный жесткий процессор RemoteFX на узле Windows Server 2016, выполните следующие действия.To configure RemoteFX vGPU on your Windows Server 2016 host:

  1. Установите графические драйверы, рекомендованные поставщиком GPU для Windows Server 2016.Install the graphics drivers recommended by your GPU vendor for Windows Server 2016.
  2. Создайте виртуальную машину под управлением гостевой ОС, поддерживаемой виртуальным процессором RemoteFX.Create a VM running a guest OS supported by RemoteFX vGPU. Дополнительные сведения см. в разделе Поддержка RemoteFX 3D Video Adapter (виртуальный графический адаптер).To learn more, see RemoteFX 3D Video Adapter (vGPU) support.
  3. Добавьте на виртуальную машину адаптер 3D Graphics для RemoteFX. Add the RemoteFX 3D graphics adapter to the VM. Дополнительные сведения см. в статье Настройка 3D-адаптера RemoteFX для виртуальных GPU.To learn more, see Configure the RemoteFX vGPU 3D adapter.

По умолчанию виртуальный графический процессор RemoteFX будет использовать все доступные и поддерживаемые GPU.By default, RemoteFX vGPU will use all available and supported GPUs. Чтобы ограничить количество GPU, используемых виртуальным графическим процессором RemoteFX, выполните следующие действия.To limit which GPUs the RemoteFX vGPU uses, follow these steps:

  1. В диспетчере Hyper-V перейдите к параметрам Hyper-V.Navigate to the Hyper-V settings in Hyper-V Manager.
  2. Выберите физические GPU в параметрах Hyper-V.Select Physical GPUs in Hyper-V Settings.
  3. Выберите графический процессор, который не нужно использовать, а затем снимите флажок Использовать этот графический процессор в RemoteFX.Select the GPU that you don’t want to use, and then clear Use this GPU with RemoteFX.

Настройка трехмерного адаптера vGPU RemoteFXConfigure the RemoteFX vGPU 3D adapter

Вы можете использовать пользовательский интерфейс диспетчера Hyper-V или командлеты PowerShell, чтобы настроить трехмерный графический адаптер vGPU RemoteFX.You can use either the Hyper-V Manager UI or PowerShell cmdlets to configure the RemoteFX vGPU 3D graphics adapter.

Настройка RemoteFX для виртуальных GPU с помощью диспетчера Hyper-VConfigure RemoteFX vGPU with Hyper-V Manager
  1. Останавливает виртуальную машину, если она выполняется в данный момент.Stop the VM if it’s currently running.

  2. Откройте диспетчер Hyper-V, перейдите к разделу Параметры виртуальной машины, а затем выберите Добавить оборудование.Open Hyper-V Manager, navigate to VM Settings, then select Add Hardware.

  3. Выберите адаптер RemoteFX 3D Graphics и нажмите кнопку Добавить. Select RemoteFX 3D Graphics Adapter, then select Add.

  4. Задайте максимальное число мониторов, максимальное разрешение монитора и используемой видеопамяти, либо оставьте значения по умолчанию.Set the maximum number of monitors, maximum monitor resolution, and dedicated video memory, or leave the default values.

    Примечание

    • Установка большего числа значений для любого из этих параметров повлияет на масштаб службы, поэтому следует задать только то, что необходимо.Setting higher values for any of these options will impact your service scale, so you should only set what is necessary.
    • Если необходимо использовать 1 ГБ выделенной видеопамяти, для получения наилучших результатов используйте 64-разрядную гостевую виртуальную машину вместо 32-bit (x86).When you need to use 1 GB of dedicated VRAM, use a 64-bit guest VM instead of 32-bit (x86) for best results.
  5. Нажмите кнопку ОК , чтобы завершить настройку. Select OK to finish the configuration.

Настройка виртуальных GPU RemoteFX с помощью командлетов PowerShellConfigure RemoteFX vGPU with PowerShell cmdlets

Используйте следующие командлеты PowerShell для добавления, проверки и настройки адаптера:Use the following PowerShell cmdlets to add, review, and configure the adapter:

Мониторинг производительностиMonitor performance

Производительность и масштаб службы, поддерживающей RemoteFX на виртуальных GPU, определяется различными факторами, такими как количество графических процессоров в системе, Общая память GPU, объем системной памяти и скорость памяти, число ядер ЦП и тактовая частота ЦП, скорость хранения и реализация NUMA.The performance and scale of a RemoteFX vGPU-enabled service are determined by a variety of factors such as number of GPUs on your system, total GPU memory, amount of system memory and memory speed, number of CPU cores and CPU clock frequency, storage speed, and NUMA implementation.

Память системы узлаHost system memory

Для каждой виртуальной машины, поддерживающей виртуальный графический процессор, RemoteFX использует системную память как в гостевой операционной системе, так и на сервере узла.For every VM enabled with a vGPU, RemoteFX uses system memory both in the guest operating system and in the host server. Гипервизор гарантирует доступность системной памяти для гостевой операционной системы.The hypervisor guarantees the availability of system memory for a guest operating system. На узле каждому виртуальному рабочему столу с поддержкой виртуальных рабочих столов необходимо объявить требования к системной памяти гипервизору.On the host, each vGPU-enabled virtual desktop needs to advertise its system memory requirement to the hypervisor. Когда запускается виртуальный рабочий стол с поддержкой виртуальных рабочих столов, гипервизор резервирует дополнительный объем системной памяти на узле.When the vGPU-enabled virtual desktop starts, the hypervisor reserves additional system memory in the host.

Требования к памяти для сервера с поддержкой RemoteFX являются динамическими, так как объем памяти, потребляемой на сервере с поддержкой RemoteFX, зависит от числа мониторов, связанных с виртуальными рабочими столами с поддержкой виртуальных рабочих столов, и максимального разрешения этих мониторов.The memory requirement for the RemoteFX-enabled server is dynamic because the amount of memory consumed on the RemoteFX-enabled server is dependent on the number of monitors that are associated with the vGPU-enabled virtual desktops and the maximum resolution for those monitors.

Видеопамять основного GPU узлаHost GPU video memory

Каждый виртуальный рабочий стол с поддержкой виртуальных рабочих столов использует аппаратную видеопамять GPU на сервере узла для подготовки к просмотру рабочего стола.Every vGPU-enabled virtual desktop uses the GPU hardware video memory on the host server to render the desktop. Кроме того, кодек использует видео-память для сжатия отображаемого экрана. In addition, a codec uses the video memory to compress the rendered screen. Объем памяти, необходимый для отрисовки и сжатия, непосредственно зависит от количества мониторов, подготовленных для виртуальной машины.The amount of memory needed for rendering and compression is directly based on the number of monitors provisioned to the virtual machine. Объем зарезервированной видеопамяти зависит от разрешения экрана системы и количества мониторов.The amount of reserved video memory varies based on the system screen resolution and how many monitors there are. Некоторым пользователям требуется более высокое разрешение экрана для определенных задач, но существует большая масштабируемость с более низкими параметрами разрешения, если все остальные параметры остаются постоянными.Some users require a higher screen resolution for specific tasks, but there’s greater scalability with lower resolution settings if all other settings remain constant.

ЦП узлаHost CPU

Гипервизор планирует размещение и виртуальные машины на ЦП. The hypervisor schedules the host and VMs on the CPU. Издержки на узле с поддержкой RemoteFX увеличиваются, так как система запускает дополнительный процесс (rdvgm.exe) на виртуальном рабочем столе с поддержкой виртуальных рабочих столов.The overhead is increased on a RemoteFX-enabled host because the system runs an additional process (rdvgm.exe) per vGPU-enabled virtual desktop. Этот процесс использует драйвер графического устройства для выполнения команд GPU.This process uses the graphics device driver to run commands on the GPU. Кодек также использует ЦП для сжатия данных экрана, которые необходимо отправить обратно клиенту.The codec also uses the CPU to compress screen data that needs to be sent back to the client.

Большее число виртуальных процессоров означает лучшее взаимодействие с пользователем.More virtual processors mean a better user experience. Мы рекомендуем выделить не менее двух виртуальных процессоров на виртуальный рабочий стол с поддержкой виртуальных рабочих столов. We recommend allocating at least two virtual CPUs per vGPU-enabled virtual desktop. Мы также советуем использовать архитектуру x64 для виртуальных рабочих столов с поддержкой GPU, так как производительность виртуальных машин x64 лучше по сравнению с виртуальными машинами x86.We also recommend using the x64 architecture for vGPU-enabled virtual desktops because the performance on x64 virtual machines is better compared to x86 virtual machines.

Вычислительная мощность процессораGPU processing power

У каждого виртуального рабочего стола с поддержкой виртуальных рабочих столов есть соответствующий процесс DirectX, выполняемый на сервере узла.Every vGPU-enabled virtual desktop has a corresponding DirectX process that runs on the host server. Этот процесс воспроизводит все команды графики, полученные от виртуального рабочего стола RemoteFX, на физический графический процессор.This process replays all graphics commands it receives from the RemoteFX virtual desktop onto the physical GPU. Это аналогично одновременному запуску нескольких приложений DirectX на одном физическом GPU.This is like running multiple DirectX applications at the same time on the same physical GPU.

Как правило, графические устройства и драйверы настроены на запуск только нескольких приложений на рабочем столе за раз, но RemoteFX растягивает графические процессоры еще больше.Usually, graphics devices and drivers are tuned to run only a few applications on the desktop at a time, but RemoteFX stretches the GPUs to go even further. Вгпус поставляются с счетчиками производительности, которые измеряют ответ GPU на запросы RemoteFX и помогают убедиться, что GPU не растягиваются слишком далеко.vGPUs come with performance counters that measure the GPU response to RemoteFX requests and help you make sure the GPUs aren’t stretched too far.

Когда GPU не хватает ресурсов, операции чтения и записи выполняются длительное время.When a GPU is low on resources, read and write operations take a long time to complete. Администраторы могут использовать счетчики производительности, чтобы выяснить, когда следует настраивать ресурсы и предотвращать время простоя для пользователей.Administrators can use performance counters to know when to adjust resources and prevent downtime for users.

Узнайте больше о счетчиках производительности для мониторинга поведения виртуальных GPU RemoteFX при диагностике проблем с производительностью графики в удаленный рабочий стол.Learn more about performance counters for monitoring RemoteFX vGPU behavior at Diagnose graphics performance issues in Remote Desktop.

Методика тестирования производительности в среде macOS, версия 3 (2020 г.): профессиональные приложения и бенчмарки

Два года назад мы представили вам вторую версию комплексной методики тестирования производительности компьютеров под управлением macOS. Мы использовали ее при написании целого ряда статей, и большинство тестов сохранили актуальность до сих пор. Однако время идет, и ряд тестов перестали корректно работать, другие — обновились без сохранения совместимости со старыми результатами. А некоторые стали менее показательными из-за роста производительности компьютеров. Пришло время подготовить третью версию методики.

Как и во второй версии, общий «каркас» методики останется прежним: это ряд разработанных нами сценариев работы в реальных приложениях — Final Cut Pro X, Compressor и Maxon Cinema 4D, к которым мы добавили Pro Logic X. А вот набор бенчмарков был существенно обновлен.

Тестовый стенд

В качестве тестовых компьютеров мы использовали три модели Apple: новейший Mac Pro в конфигурации, подробно описанной в отдельной статье, 15-дюймовый MacBook Pro (Mid 2017) и 12-дюймовый MacBook (Mid 2017). В таблице ниже показаны основные характеристики этих моделей, относящиеся к производительности.

 Mac Pro (Late 2019)MacBook Pro 15″ (Mid 2017)MacBook 12″ (Mid 2017)
Процессор (CPU)Intel Core W-3245 (Cascade Lake)Intel Core i7-7820HQ (Kaby Lake)Intel Core m3-7Y32 (Kaby Lake)
Количество ядер CPU, частота16 ядер, 32 потока, 3,2 ГГц, Turbo Boost до 4,4 ГГц4 ядра, 8 потоков, 2,9 ГГц, Turbo Boost до 3,9 ГГц2 ядра/4 потока, 1,2 ГГц (Turbo Boost до 3,0 ГГц)
GPU2 AMD Radeon Pro Vega II c 32 ГБ памяти HBM2 + ускоритель Apple AfterburnerAMD Radeon Pro 560Intel HD Graphics 615
Оперативная память192 ГБ LPDDR4 2933 МГц16 ГБ 2133 МГц LPDDR38 ГБ DDR3 1866 МГц
ХранилищеSSD 4 ТБSSD 512 ГБSSD 256 ГБ

Почему именно эти модели? Первая из них — это новейший флагман среди всех компьютеров Apple, вторая — не самый новый, но весьма производительный середнячок, а третья — самый слабый вариант из актуальной линейки, то есть три очень показательные конфигурации (каждая — по-своему). Подчеркнем, что в описании методики тестирования мы не ставим задачу сравнить их между собой — здесь всё и так очевидно. Скорее, нам важно убедиться, что демонстрируемый в подобранных нами тестах разрыв будет действительно соответствовать реальному положению вещей.

На всех трех моделях использовался одинаковый софт: операционная система macOS Catalina, Final Cut Pro 10.4, а также актуальные версии тестовых приложений.

Видеомонтаж

Как и в прошлых версиях методики, мы начинаем с Final Cut Pro X. Видеомонтаж — одна из главных и наиболее показательных профессиональных задач, а пакет Final Cut Pro X — ведущее программное решение в этой сфере.

Подтест 1: стабилизация видео 4К

Итак, первая операция — стабилизация видео 4K. Как и в предыдущих версиях методик, в качестве тестового видео мы будем использовать 5-минутный видеоролик 4K 30 fps, снятый на iPhone 7 Plus. Сохранение именно этого ролика необходимо для преемственности результатов.

Здесь вся информация о ролике, полученная с помощью утилиты Mediainfo. Само видео можно загрузить здесь.

Открываем FCP, создаем New Event, нажимаем Import Media и выбираем видеофайл в открывшемся окне.

Файл должен лежать на рабочем столе. И при импорте надо отметить Leave files in place, чтобы избежать копирования файла в медиатеку Final Cut и снижения производительности из-за этого.

После того, как видео добавилось, создаем новый проект и видим файл на Timeline. Нажимаем на него, в левом верхнем углу нажимаем на третью кнопку слева — открывается миниокно Background Tasks. Далее выбираем в Inspector в правой части вкладку Video, отмечаем галочкой Stabilization, не меняя никакие настройки. И тут же запускаем секундомер.

Видим, что в окне Background Tasks начался процесс Transcoding and Analysis. Сразу после его завершения начнется процесс Rendering. И только по окончании Rendering мы останавливаем секундомер и записываем получившееся время.

Интерфейс Final Cut Pro за два года совершенно не изменился, крупных обновлений не было, так что здесь все остается по-прежнему. За одним исключением: почему-то при тестах на Mac Pro рендеринг не стартовал сам. Поэтому для корректности результатов и их сравнения надо в таком случае сразу после Transcoding and Analysis нажать сочетание клавиш Ctrl+R, запустив тем самым рендеринг. Напоминаем, что во время измерения важно не трогать мышь и не совершать никаких действий в FCP, иначе процесс будет приостанавливаться, а следовательно, результаты уже не будут корректными.

Подтест 2: финальный рендеринг через Compressor

Для этого нажимаем в Final Cut Pro X вкладку File / Send to Compressor.

Открывается Compressor (разумеется, он должен быть предварительно установлен на компьютере), в нем мы нажимаем на центральную кнопку Add Outputs и в открывшемся меню выбираем Publish to YouTube / Up to 4K. Почему именно его? Потому что получаемый файл — приемлемых размеров, что хорошо для тестирования (не всегда объем SSD бывает максимальным), а кроме того, это вполне понятный «жизненный» сценарий.

После этого осталось нажать кнопку Start Batch в нижнем правом углу окна приложения — и процесс начнется. Никаких изменений по сравнению с прошлой версией методики здесь нет.

Подтест 3: стабилизация видео Full HD

В третьем тесте мы повторяем действия и настройки первого, только с видеороликом разрешения Full HD. Его параметры — ниже, а файл — здесь.

Сохранение Full HD в методике пока еще необходимо, потому что и операция весьма популярная, и для слабых моделей это может быть оптимальный вариант.

Подтест 4: работа с видео 8К

Далее мы добавляем в FCPX видео 8К H.265. В качестве тестового ролика мы решили использовать вот это видео. Раньше его можно было купить за небольшую сумму, теперь уже нельзя, но на YouTube ролик доступен бесплатно. Нам важен исходный файл, поэтому приводим его здесь. Его параметры в Mediainfo — на скриншоте.

Обратим внимание на настройки импорта. При добавлении видео на Timeline появляется окно, предлагающее указать параметры — разрешение и частоту кадров. И там по умолчанию стоит разрешение 4К. Нам же надо выбрать Custom, и тогда автоматически будут подставлены нужные параметры и по разрешению, и по кодеку, и по частоте кадров.

Открыв видео на Timeline, мы создаем прокси-файл. Это весьма жизненный сценарий, поскольку с такими тяжелыми видео лучше работать, конечно, через прокси-файл (фактически, дубль вашего файла, но в более низком разрешении; все дальнейшие монтажные операции будут делаться с ним, что сэкономит ресурсы и время, а уже при завершении работы изменения будут применены к исходному файлу). Чтобы сделать прокси-файл, надо кликнуть правой кнопкой мыши на видео в Events Browser, затем нажать Transcode Media, в появившемся окне отметить Proxy Media и нажать ОК. Не забудьте сразу в этот момент включить секундомер и следить за процессом через Background Tasks.

Подтест 5: экспорт 8К через Compressor в несколько файлов

Последняя операция — самая радикальная и имеющая смысл только в случае действительно мощных компьютеров: финальный рендеринг видео 8К через Compressor с использованием четырех кодеков Apple ProRes: 442, Apple ProRes: 442 HQ, Apple ProRes 4444 и Apple ProRes 4444 XQ.

Однако для этого нам понадобится другой файл — тот, что в предыдущем подтесте, слишком большой для наших целей. Кроме того, это уже смонтированное видео. А что если взять прямо исходник с профессиональной камеры 8К? Одна из самых востребованных в Голливуде линеек камер — Red. С ними работают Дэвид Финчер, Ридли Скотт, Баз Лурман, Брайан Сингер, Питер Джексон, Стивен Содерберг и другие мэтры. И вот здесь мы можем скачать сэмплы с разных моделей Red. Мы выбрали первый из них: сцену на мотоцикле, снятую на Monstro 8K VV (прямая ссылка, 922,9 МБ).

Обратите внимание: камеры Red пишут видео в своем формате — R3D. Чтобы открыть такие файлы в Final Cut Pro X, надо установить плагин отсюда.

После установки плагина импортируем файл в Final Cut, причем в настройках импорта указываем в качестве кодека для рендеринга Uncompressed 10-bit 4:2:2.

Далее добавляем какой-нибудь эффект на файл — например, зерно (так у нас получится из этого мотоциклетного видео «Беспечный ездок» :)). И отправляем в Compressor. И здесь важный нюанс. В настройках Compressor надо обязательно зайти в Advanced, поставить там галочку на Enable additional Compressor instances и в выпадающем списке выбрать максимально возможное количество для вашего компьютера.

Пояснение в разделе поддержки на сайте Apple гласит:

The number of available Compressor instances is determined by your computer’s cores and memory. After meeting the minimum system requirement (four cores and 2 GB of memory), you can add one additional instance for every additional four cores and 2 GB of memory.

Под ядрами (cores) в данном случае понимаются потоки. Проще говоря, у нас на Mac Pro 16-ядерный процессор с 32 потоками. Вычитаем 4 из 32 и делим на 4 — получаем 7: именно столько дополнительных instances (то есть параллельных процессов) может здесь быть. Для этого значения объем памяти должен быть минимум 16 ГБ, но у нас 192 ГБ, так что тут все упирается именно в количество потоков процессора. Но вообще 7 — это, конечно, чересчур, поэтому мы решили ограничиться четырьмя.

Обратите внимание: если мы не сделаем эту настройку и запустим рендеринг файла с помощью четырех кодеков, то файлы будут кодироваться по очереди — пока не завершится процесс с первым, не запустится рендеринг второго, и так далее. Нам же здесь важно именно максимально загрузить железо. Во время теста окно Compressor должно выглядеть следующим образом.

Итак, у нас получилось 5 подтестов. В предыдущей версии методики было столько же, но мы убрали добавление эффекта на видео 8К и вместо него придумали куда более ресурсоемкий процесс. Результаты следующие.

 Mac Pro (Late 2019)MacBook Pro 15″ (Mid 2015)MacBook 12″ (Mid 2017)
Тест 1 — стабилизация 4К (мин:сек)2:0421:20неприменимо
Тест 2 — финальный рендеринг 4К через Compressor (мин:сек)5:086:56неприменимо
Тест 3 — стабилизация Full HD (мин:сек)4:3119:23неприменимо
Тест 4 — создание прокси-файла из 8К (мин:сек)1:542:59неприменимо
Тест 5 — экспорт 8К в четыре формата Apple ProRes через Compressor (мин:сек)1:09неприменимонеприменимо

Последние два подтеста (работа с 8К-видео) стоит использовать только на действительно производительных компьютерах. Причем экспорт 8К в четыре формата и вовсе подходит только для топовых систем, где процессоры минимум восьмиядерные.

Воспроизведение видео 8К

Последняя операция — воспроизведение видео 8К. Да-да, просто воспроизведение. Эта задача показательна для компьютеров среднего и нижнего уровня.

Здесь мы поступаем просто: берем первое видео 8К, которое использовали для тестов в Final Cut Pro, открываем его в QuickTime Player и смотрим (с тем же успехом его можно воспроизвести и в самом FCP).

Кстати, полезно во время воспроизведения следить за температурой CPU и GPU (на скриншоте выше вы видите информационный блок справа). Но об этом мы подробнее расскажем далее.

3D-моделирование

В операциях по 3D-моделированию мы будем использовать, как и прежде, Maxon Cinema 4D Studio.

Скачиваем, устанавливаем и открываем программу (можно пользоваться демо-версией). Далее скачиваем файл no_cm.c4d. Открываем его в Cinema 4D Studio (File / Open) и видим такую картину.

Далее жмем в верхнем меню самой программы Render / Render To Picture Viewer. И наблюдаем процесс рендеринга 3D-сцены.

По окончании рендеринга мы увидим время в окне History справа — в колонке Render Time. Вот оно нам и нужно.

Кроме того, у компании Maxon есть бенчмарк Cinebench, который работает на том же движке и, фактически, имитирует те же операции, что мы выполняли в Cinema 4D.

Бенчмарк мультиплатформенный, поэтому результаты в нем вполне можно сравнить с результатами на ПК под управлением Windows.

Ниже — результаты рендеринга в 4D Cinema, Cinebench R15 и Cinebench R20. На первый взгляд, странно, что приходится использовать две версии одной и той же программы, но проблема в том, что в 20-й версии бенчмарка разработчики убрали GPU-тест (OpenGL), хотя и усовершенствовали CPU-сцену. Поэтому приходится держать оба бенчмарка, благо оба они устанавливаются из DMG-файлов. Вот здесь можно скачать Cinebench R15.

 Mac Pro (Late 2019)MacBook Pro 15″ (Mid 2015)MacBook 12″ (Mid 2017)
Maxon Cinema 4D Studio, render time, мин:сек (меньше — лучше)1:435:0126:36
Cinebench R15, OpenGL, fps (больше — лучше)137,5781,3226,19
Cinebench R20, pts (больше — лучше)67991551598

Очень показателен огромный разрыв в скорости рендеринга между всеми тремя устройствами. При этом, что важно, это не синтетический бенчмарк, а реальная задача в популярном приложении для 3D-моделирования.

Apple Pro Logic X

Совершенно новый тест, который мы вводим в этой версии методики — создание аудиофайлов в Apple Pro Logic X. На самом деле, это элементарно простой тест, но весьма показательный для тех, кто использует Mac для создания музыки.

Итак, скачиваем из Mac App Store и запускаем Pro Logic X (актуальная версия на момент тестирования — 10.4.8), среди демо-проектов видим Beck – Colours. Открываем его.

Видим такую картину.

Далее в меню Files выбираем Bounce project or section и в открывшемся окне отмечаем галочками три верхних формата: PCM, MP3, M4A: Apple Lossless. Нормализацию отключаем (Off). И запускаем процесс, включая секундомер.

В итоге у нас появятся три аудиофайла. Время на их создание — и есть результат теста (округляем его до секунд). Вот что получилось с нашими моделями.

 Mac Pro (Late 2019)MacBook Pro 15″ (Mid 2015)MacBook 12″ (Mid 2017)
Apple Pro Logic X bounce (мин:сек)0:391:192:26

Видно, что разброс результатов относительно невелик. Так, MacBook 12″ отстал от Mac Pro всего в два с половиной раза и менее чем в два раза — от MacBook Pro 15″. И всё же это тоже вполне показательный и объективный сценарий.

Итак, наш набор профессиональных приложений позволит оценить производительность основных комплектующих «в реальной жизни» — как вместе, так и с упором отдельно на GPU и CPU. Но помимо этого необходимо воспользоваться синтетическими и игровыми бенчмарками, чтобы сложить максимально полную картину.

Бенчмарки

Здесь, по большому счету, никаких изменений по сравнению с предыдущей версией методики нет, но обновились сами бенчмарки.

JetStream 2

Начнем с браузерного JavaScript-бенчмарка JetStream 2. В качестве браузера использовался Safari.

 Mac Pro (Late 2019)MacBook Pro Retina 15″ (Mid 2017)MacBook 12″ (Mid 2017)
Баллы (больше — лучше)153,5134,8зависал

Остальные браузерные бенчмарки, которые мы используем при тестировании мобильных устройств на iOS/Android, здесь запускать не имеет смысла, потому что мощи «взрослых» устройств Apple достаточно для того, чтобы не беспокоиться о скорости работы движка JavaScript в браузере. Поэтому мы приводим показатели лишь одного такого бенчмарка JetStream 2 — что называется, до кучи. Ну, и для сопоставления компьютеров и ноутбуков со смартфонами и планшетами, если кому интересно. И здесь хорошо видно, что даже между Mac Pro и MacBook Pro 15″ нет серьезной разницы, то есть тест показателен лишь для относительно слабых моделей. Хотя совсем слабенький MacBook попросту зависал на нем. Но не надо забывать, что мы тестировали модель 2017 года, а новые устройства будут уже, конечно, более производительными и вполне потянут текст. Все-таки методика делается с заделом на будущее.

Geekbench 5

Разумеется, не обойтись и без Geekbench — пожалуй, самого популярного бенчмарка для macOS. С момента появления прошлой версии методики вышла новая — пятая — версия бенчмарка, несовместимая с предыдущими. Как и раньше, здесь есть и тест CPU, и тест GPU (Compute Benchmark) на основе OpenCL и Metal. Вот здесь детально объясняется, где, как и зачем может применяться OpenCL при разработке приложений для macOS. Что же касается Metal, то это основной инструментарий для разработки игр под macOS.

Важный нюанс: в подтесте Compute можно указать, какой GPU будет задействоваться, если в компьютере есть и интегрированная, и дискретная графика. Поэтому в таблице ниже вы увидите в соответствующей ячейке у MacBook Pro 15″ (Mid 2017) два значения. Первое — для интегрированного графического ядра, второе — для дискретной графики.

 Mac Pro (Late 2019)MacBook Pro 15″ (Mid 2017)MacBook 12″ (Mid 2017)
Одноядерный 64-битный режим (больше — лучше)1184937728
Многоядерный 64-битный режим (больше — лучше)1604937751567
Compute OpenCL (больше — лучше)843894744 / 136101392
Compute Metal (больше — лучше)1041164572 / 138381208

Здесь в результатах можно отметить, во-первых, гигантский отрыв Mac Pro именно в тестах Compute и многоядерном режиме CPU, а во-вторых, относительно небольшой разрыв в одноядерном CPU-тесте между всеми тремя моделями.

Geeks 3D GPU Test

Переходим к тестированию графической производительности в бенчмарках. Увы, с большим сожалением вынуждены исключить из новой версии методики GFXBenchmark и CompuBenchCL. По всей видимости, разработчики решили дальше не развивать эти продукты (по крайней мере, их macOS-версии), а из-за того, что они при запуске обращаются к серверу, работа этих приложений оказывается крайне нестабильной. CompuBenchCL уже больше года не запускается или вылетает во время использования (поэтому мы его не используем давно), а с недавних пор похожие проблемы замечены и в GFXBenchmark.

Что ж, будем надеяться, что они к нам еще вернутся, а пока попробуем бесплатный, мультиплатформенный, компактный и лишенный привязки к интернету Geeks 3D GPU Test. Судя по информации в файле, он тоже довольно давно не обновлялся, но из-за простоты и отсутствия привязки к «внешнему миру» бенчмарк вполне может использоваться и сегодня.

Итак, скачиваем бесплатный архив с сайта производителя, в нем видим несколько файлов. Из них нас интересует GpuTest_GUI. Запускаем его, видим такой очень простой интерфейс.

Вверху можно выбрать тест. Среди них есть такие популярные мультиплатформенные тесты, как FurMark и TessMark. Их-то мы и запустим (последний — в версии х64), нажав на кнопку Run benchmark. Но прежде выставим разрешение на 1980×1080, а антиалиаcинг поставим на 8× MSAA.

Выполняемый тест FurMark выглядит так:

А TessMark — так:

Результаты тестирований появляются через минуту-другую и выглядят следующим образом:

Таким образом, нам показывают и кадры в секунду, и баллы. В таблице мы укажем оба значения.

 Mac Pro (Late 2019)MacBook Pro Retina 15″ (Mid 2017)MacBook 12″ (Mid 2017)
FurMark, баллы / fps3956 / 65451 / 786 / 1
TessMark, баллы / fps7337 / 1222245 / 37399 / 6

Что ж, разрыв между устройствами соответствует ожиданиям, но главное — запас по сложности достаточно велик, чтобы тестировать даже самые мощные модели, типа Mac Pro. Плюс к этому, тест MessMark вполне можно использовать для тестирования автономной работы, только при запуске надо тогда выбирать не Run benchmark, а Run stress test. Тогда сцена будет крутиться просто нон-стоп.

Civilization VI Benchmark

Как и в прежней версии методики, для тестирования производительности в реальных играх воспользуемся встроенным бенчмарком Civilization VI. Для этого в главном меню игры выбираем Benchmark, и он автоматически стартует.

Суть его работы очень проста: демонстрируется сцена, измеряется FPS. По итогам бенчмарк выдает два значения: Average Frame Time (среднее время отрисовки кадра) и 99th Percentile (время отрисовки, которое обгоняют 99% кадров — т. е. отброшен результат отрисовки 1% кадров с самой низкой скоростью, чтобы избавиться от случайных тормозов). Оба значения выводятся в миллисекундах, однако мы решили переводить миллисекунды в более привычные FPS. Делается это просто: делим 1000 (поскольку в 1 секунде 1000 мс) на полученное значение и записываем результат. В таблице указываем его с округлением до одной десятой. Соответственно, чем больше FPS, тем лучше.

Однако здесь встает вопрос, какие настройки использовать. Опыт применения бенчмарка в прошлой методике показал, что самое правильное — использовать настройки по умолчанию. Это дает представление о реальном игровом комфорте в одном из самых требовательных и известных проектов.

 Mac Pro (Late 2019)MacBook Pro Retina 15″ (Mid 2017)MacBook 12″ (Mid 2017)
Civilization VI, Average Frame Time, fps44,421,2не поддерживается
Civilization VI, 99th Percentile, fps21,913,1не поддерживается

При этом требования игры таковы, что даже на самых производительных конфигурациях максимальные значения FPS не достигаются, а это хорошо для наших задач.

BlackMagic Disk Speed

Если перечисленные выше бенчмарки помогают нам оценить производительность CPU и GPU, то BlackMagic Disk Speed (доступен в Mac App Store) ориентирован на тестирование накопителя — скорости чтения и записи файлов.

Это очень простое приложение, в котором можно выбирать объем данных (от 1 до 5 ГБ), с помощью которых будет тестироваться быстродействие накопителя, но больше никаких настроек нет, так что остается только нажать кнопку Speed Test Start и запустить процесс.

Вот результаты для наших трех «конкурсантов».

 Mac Pro (Late 2019)MacBook Pro Retina 15″ (Mid 2017)MacBook 12″ (Mid 2017)
Запись / чтение, МБ/с (больше — лучше)2964 / 28351590 / 22261039 / 1353

Хорошо видно, что хотя во всех трех моделях установлен SSD, разброс результатов весьма велик. Так, по скорости чтения Mac Pro обгоняет MacBook 12″ почти в три раза!

Измерение нагрева CPU и GPU

И последнее, без чего не обойтись при тестировании компьютеров и особенно ноутбуков: измерение нагрева. Зачастую именно недостаточно хорошее охлаждение становится причиной падения производительности и дискомфорта при использовании. Для тестирования нагрева мы, как и прежде, используем утилиту Tunabelly TG Pro.

Она демонстрирует нагрев всех основных компонентов, включая каждое ядро CPU и GPU в отдельности, а также умеет создавать лог и отображать температуру в режиме реального времени.

Tunabelly TG Pro имеет смысл использовать во время длительного тестирования, предполагающего максимальную нагрузку — например, в операциях видеомонтажа.

Также мы можем в случае необходимости измерить внешний нагрев корпуса и шум. Это может быть целесообразно в тех случаях, когда они явно выходят за рамки комфортных значений. Описание и примеры того, как это делается, можно найти в статьях из раздела «Ноутбуки и планшеты» (например, здесь).

Выводы

Итак, мы оптимизировали методику тестирования компьютеров под macOS в соответствии с реалиями 2020 года: убрали бенчмарки и сценарии, потерявшие актуальность, добавили тест в Compressor для сверхмощных конфигураций, включили Apple Logic Pro X и новые GPU-тесты. Так что теперь, по крайней мере до выхода следующей версии операционной системы, мы будем иметь достаточно универсальный набор инструментов для определения производительности. Важно, что здесь есть и реальные сценарии в ведущих профессиональных приложениях, и очень наглядные бенчмарки; часть тестов позволяют нагрузить даже очень крутые конфигурации, а часть (в том числе и некоторые профессиональные) подойдут и для совсем слабых моделей.

Также отметим, что все описанные нами тесты вы можете сами проделать на своих моделях, сравнив результаты с полученными нами. То есть методика идеально прозрачна и повторяема. Но, как и прежде, мы будем благодарны вам за любые советы и предложения новых тестов — разумеется, желательно аргументировать, что они дадут такого, чего не могут дать описанные нами, и чем они лучше.

Может ли графический процессор ускорить работу компьютера? | Small Business

Графический процессор — это микросхема, которая выполняет любые функции, связанные с тем, что отображается на экране вашего компьютера. Сегодня каждый компьютер имеет какую-либо форму графического процессора. Новый графический процессор может ускорить ваш компьютер, но степень, в которой он выполняет это ускорение, зависит от многих переменных. Чтобы понять, сможет ли графический процессор ускорить работу вашего компьютера, сначала поймите, какую роль он играет.

Краткая история графического процессора

Отдельные чипы для графики существовали еще в конце 1970-х годов, начиная с таких консолей, как RCA «Pixie.«Однако современное понимание графического процессора восходит к тому времени, когда ПК начали использовать графические пользовательские интерфейсы. До GPU все данные проходили через главный процессор — данные, связанные с функцией, которую выполняла программа, вместе с графическими данными, которые программа использовала, чтобы показать вам эти функции. Возникло узкое место, особенно с ростом популярности трехмерных игр. Графические процессоры и видеокарты, продаваемые как 3-D, были добавлены для обработки всей обработки, связанной с графикой, такой как 3-D рендеринг, оставив ЦП для обработки более сложной физики. Таким образом, графические процессоры всегда позволяли компьютерам работать быстрее, поскольку не перегружали процессор.

Добавление графического процессора

Возможно, наибольшее преимущество в скорости связано с заменой встроенного графического процессора новым графическим процессором. Говорят, что материнская плата с графическим процессором имеет встроенный графический процессор. Как и ЦП, для работы графическому процессору требуется доступ к оперативной памяти или ОЗУ. Встроенные видеокарты не только обычно имеют более низкие тактовые частоты, но и выделяют часть системной оперативной памяти для своих графических функций.Покупка отдельной карты GPU не только дает вам потенциально более быстрый графический процессор, но также приносит с собой собственный набор видеопамяти или VRAM. Улучшится обработка графики и многозадачность.

Замена или обновление существующего графического процессора

Если на вашем компьютере уже есть отдельный графический процессор, производительность зависит от увеличения мощности. Как и центральные процессоры, графические процессоры измеряются как по их тактовой частоте, объему включенной видеопамяти, так и по скорости взаимодействия графического процессора и видеопамяти. Другие факторы включают количество конвейеров пикселей и поддерживаемые графические библиотеки.Вы увидите улучшение производительности современной операционной системы с интенсивным использованием графики, обновив карту, но в основном это будет ограничиваться взаимодействием. Например, перетаскивание окна, в котором воспроизводится видео, не приведет к заиканию видео, а нажатие на меню может привести к более плавной анимации. Наибольший прирост производительности на данный момент наблюдается в компьютерных играх, в которых используются библиотеки трехмерной графики, такие как OpenGL или Direct3D.

Удвоение графического процессора

Для экстремальных геймеров есть возможность установить сразу две видеокарты.Эти проприетарные технологии, именуемые Crossfire с AMD и SLI через Nvidia, позволяют нескольким графическим картам работать вместе одновременно, подобно многоядерному процессору. Преимущества добавления дополнительного графического процессора в значительной степени ограничиваются компьютерными играми, поскольку технология связана с разделением трехмерного рендеринга и физических расчетов. Несколько графических процессоров также могут помочь в определенных графических программах, таких как программное обеспечение для редактирования видео.

Ссылки

Writer Bio

Джейкоб Эндрю ранее работал специалистом по технологиям, имеющим сертификаты A + и CCNA.После получения степени бакалавра журналистики в Университете Висконсина в Мэдисоне в 2012 году он сосредоточился на написании статей о путешествиях, политике и современных технологиях.

Как ускорить работу видеокарты

Во время игр графический процессор (GPU) — ваш лучший друг. Он отображает все, что вы видите на экране, от пользовательского интерфейса до гор, возвышающихся вдалеке. Он работает в тандеме с процессором, но на самом деле он выполняет основную часть тяжелой работы, поэтому нам нужно правильно относиться к нему, чтобы он оставался счастливым и работал оптимально.

К сожалению, в вашем ПК есть множество факторов, которые создают виртуальное дождевое облако, нависающее над производительностью вашего графического процессора. Но не волнуйтесь: вот как ускорить вашу видеокарту, чтобы добиться наилучшего игрового процесса.

Примечание. Это руководство применимо к ПК с Windows 10, хотя некоторые предложения применимы и к MacOS. В этом руководстве мы также уделяем особое внимание графическому процессору. Это главный компонент производительности в игре, но не единственный.Чтобы получить более общие советы, ознакомьтесь с нашим руководством о том, как увеличить частоту кадров на ПК.

Обновите или обновите драйверы

Это должно быть вашим первым шагом в повышении производительности графического процессора, независимо от того, имеет ли ваш компьютер встроенную графику или дискретный графический процессор. Поскольку этот чип обрабатывает большую часть визуальной нагрузки, установка последних версий драйверов должна быть приоритетом.

Если вы не знаете, что установлено на вашем компьютере, выполните в Windows 10 следующее:

Шаг 1: Щелкните правой кнопкой мыши кнопку «Пуск» и выберите во всплывающем меню опцию Диспетчер устройств .

Шаг 2: Открыв Диспетчер устройств , щелкните Display Adapters , чтобы развернуть и отобразить свой графический процессор (ы).

В развернутом списке должен быть хотя бы один графический процессор. Если ваш компьютер оснащен процессором Intel или графическим процессором AMD, вы увидите один список для Intel или AMD Radeon. Если у вас также есть автономный графический процессор, вы увидите дополнительный список для чипа Nvidia GeForce или AMD Radeon.

В этом примере на нашем ноутбуке Alienware указаны Intel HD Graphics 530 (интегрированная) и Nvidia GeForce GTX 1080 (дискретная).Из-за такой настройки игры по умолчанию используют более мощный чип GeForce. Это драйвер, который мы хотим обновить.

Для получения новых драйверов перейдите по этим ссылкам:

При установке драйвера используйте опцию AMD «выборочная установка», которая удаляет текущий программный пакет и устанавливает текущую версию, или опцию «чистой установки» Nvidia. Вы также можете сначала рассмотреть возможность использования Display Driver Uninstaller, поскольку он отлично справляется с удалением всех старых драйверов, но это не является строго необходимым.

Если у вас установлен настольный клиент Nvidia GeForce Experience, он обычно отправляет уведомление, когда доступен новый драйвер. Если он не установлен, щелкните ссылку выше, чтобы загрузить и обновить его вручную.

Обновление Windows 10 и DirectX

У вас, вероятно, уже есть последняя версия DirectX, но вы все равно должны проверить, на всякий случай. DirectX — это графический API, и, хотя есть и другие, в частности OpenGL и Vulkan, DirectX является наиболее распространенным для игр в Windows. Последняя версия DirectX означает наличие новейшей платформы, которая позволяет графическому процессору взаимодействовать с играми, в которых вы работаете. Старые версии работают, но вы можете практически мгновенно повысить производительность в игре, просто обновившись до последней версии.

Шаг 1: Введите dxdiag в поле поиска на панели задач и нажмите Введите .

Шаг 2: Инструмент диагностики DirectX появится на вашем экране с вкладкой Система , загруженной по умолчанию.Найдите номер версии, указанный в разделе Системная информация , как показано выше.

Microsoft обновляет DirectX через Центр обновления Windows. Если вы в настоящее время не используете DirectX 12, вам необходимо вручную обновить свой компьютер.

Шаг 1: Нажмите кнопку Start , а затем значок Gear , расположенный на левом краю меню «Пуск».

Шаг 2: Выберите Обновление и безопасность в приложении Настройки .

Шаг 3: Нажмите кнопку Проверить наличие обновлений .

Примечание. Старые видеокарты могут не поддерживать DirectX12, поэтому, если это обновление не изменяет вашу версию DX, это может быть причиной.

Разгон

Один из способов повысить производительность графического процессора — разогнать его. Это делается путем настройки частоты и напряжения ядра графического процессора и его памяти, чтобы выжать дополнительную скорость. Если вы не привыкли разгонять компоненты, действуйте осторожно и внимательно прочтите перед тем, как начать.Неправильные настройки могут потенциально повредить чип. Более того, неадекватный кулер приведет к перегреву и сбою разогнанного графического процессора.

Как и CPU, вы можете разогнать GPU с помощью программного обеспечения для настольных ПК. Одним из решений является Afterburner от MSI, который сканирует ваш графический процессор и находит самые высокие и самые стабильные настройки разгона. Другой — Precision X1 от EVGA, хотя он поддерживает только графические процессоры серии GTX 10, GTX 16 и RTX 20.

Для получения дополнительной информации о разгоне видеокарты ознакомьтесь с нашим специальным руководством.

Стоит отметить, что почти все современные графические процессоры имеют небольшой запас по разгону. Вам не нужно ничего делать, чтобы ваш графический процессор достиг максимальной производительности после установки, если вы предоставляете графический процессор правильное питание и охлаждение.

Повысьте лимит мощности

Как уже упоминалось, MSI Afterburner может автоматически определить самый стабильный разгон вашего графического процессора. Это включает ограничения мощности и напряжения. Вы можете выжать из своего графического процессора больше производительности, просто увеличив предел мощности графического процессора.Карты Nvidia и AMD имеют базовую и повышенную тактовую частоту. Когда все условия правильные — потребляемая мощность, температура и т. Д. — ваш графический процессор автоматически поднимет свою тактовую частоту до предела ускорения. Итак, повышение предела мощности делает одно: позволяет вашему графическому процессору чаще и стабильнее повышать тактовую частоту.

Примечание. Как и в случае с разгоном, перед продолжением необходимо убедиться, что ваш графический процессор имеет сильное охлаждение. Это повысит температуру вашего графического процессора и может также сделать его громче.

Шаг 1: Откройте MSI Afterburner.

Шаг 2: Перетащите ползунок Ограничение мощности со 100 на 110.

Шаг 3: Щелкните галочку под ползунками.

Шаг 4: Запустите игру, которая требует вашего графического процессора.

Шаг 5: Проверьте свою тактовую частоту с помощью MSI Afterburner.

Шаг 6: Следите за температурами графического процессора и следите за тем, чтобы они не выходили за пределы безопасного диапазона. Повторяйте, пока не достигнете предела мощности или пока графический процессор не станет нестабильным.

Afterburner берет верхний предел мощности из BIOS вашего графического процессора, поэтому пока вы просто поднимаете предел мощности и не изменяете никакие другие настройки, все будет в порядке. По сути, это не разгон, потому что на самом деле вы не увеличиваете тактовую частоту своего графического процессора. Вместо этого вы просто даете графическому процессору больше места, чтобы он автоматически набирал тактовую частоту.

Установка пользовательской кривой вентилятора

По мере увеличения предела мощности в MSI Afterburner, вы увидите, что рядом с ним повышается предел температуры.Температура является ограничивающим фактором при достижении вашим графическим процессором полной производительности, поэтому можно немного поднять предел. Однако вам следует проверить рабочие ограничения вашего графического процессора. Например, последняя версия RTX 3080 имеет максимальную рабочую температуру 93 градуса по Цельсию. Вы не хотите часто достигать этого предела, поскольку это не только сократит срок службы вашего графического процессора, но также приведет к автоматическому понижению частоты, что может ухудшить производительность.

Чтобы поддерживать низкие температуры, вы можете использовать настраиваемую кривую вентилятора.

В Интернете есть множество инструментов для кривой вентилятора, но вы можете настроить кривую своего графического процессора прямо в Afterburner:

Шаг 1: Откройте MSI Afterburner и щелкните значок Настройки (шестеренка).

Шаг 2: Выберите вкладку Вентилятор .

Шаг 3: Установите флажок Включить определяемое пользователем программное обеспечение автоматического управления вентилятором.

Шаг 4: Измените кривую, чтобы увеличить скорость вращения вентилятора по мере нагрева графического процессора.Мы рекомендуем достичь 100% скорости вращения вентилятора задолго до предельной температуры графического процессора. Например, для RTX 3080 мы установили максимальную кривую в пределах от 70 до 75 градусов Цельсия. Теперь вам нужно проверить температуру вашего графического процессора в игре, уравновешивая ее с шумом вентилятора. Изображение выше — это кривая вентилятора, которую мы выбрали для RTX 2080.

Очистите свой компьютер

Если ваша видеокарта станет слишком горячей, она будет дросселировать или замедляться, чтобы не повредить свои хрупкие компоненты.Если всасывающие вентиляторы и фильтры покрыты пылью, достаточный воздушный поток не отводит тепло от компонентов, включая графический процессор, что может привести к чрезмерному накоплению тепла.

Ваша первая линия защиты — очистить все приточные вентиляторы баллончиком со сжатым воздухом. Затем выключите компьютер, отсоедините шнур питания, заземлите себя и снимите боковую панель компьютера. Используйте сжатый воздух для удаления пыли, скапливающейся на компонентах.

Примечание. Не поддавайтесь желанию пользоваться пылесосом. Накопление статического электричества может повредить компоненты вашего ПК.

Для ноутбуков единственный выход — выдувать пыль из приточных вентиляторов. Если вам повезет, эти вентиляторы закрыты вентиляционной крышкой, которую можно легко снять и сдуть пыль прямо с вентиляторов.

Содержание компьютера в чистоте жизненно важно для его общего состояния и производительности, независимо от того, играете ли вы или просто просматриваете веб-страницы.

Улучшение воздушного потока Билл Роберсон / Digital Trends

Чистка настольного компьютера или ноутбука помогает улучшить воздушный поток, но вам может просто понадобиться больше.Для настольных ПК в корпусе могут быть места для дополнительных вентиляторов спереди, сверху и снизу. Дополнительные вентиляторы повышают уровень шума вашего ПК; однако, они будут снижать общий уровень тепла.

На ноутбуки нельзя устанавливать вентиляторы. Однако то, что может сделать , — это приобрести охлаждающую подставку, которая находится под вашим ноутбуком. Обычно он включает в себя два огромных 140-мм вентилятора, которые обдувают нижнюю часть ноутбука прохладным воздухом. Недостатком является сбор пыли, а это значит, что вам нужно содержать в чистоте еще одно устройство.

Модернизация охлаждения (только настольные ПК)

Хороший способ повысить производительность графического процессора — установить послепродажный кулер. Это может быть более мощный воздушный охладитель или более совершенное решение для жидкостного охлаждения, но это очень сильно зависит от вашей видеокарты, поскольку некоторые из них совместимы с кулерами вторичного рынка, а другие — нет. Это особенно верно в отношении жидкостного охлаждения, где для индивидуальных контуров требуются специальные водоблоки, что может быть дорогостоящим. В качестве альтернативы вы можете подключить кулер «все-в-одном», разработанный для ЦП, используя что-то вроде Kraken G12 от NZXT, но это довольно сложный процесс, к которому нельзя относиться легкомысленно.

Опять же, прежде чем начать, проведите исследование и обратите внимание, что вы, скорее всего, аннулируете гарантию на свой графический процессор, если снимете стандартный кулер.

Примечание. Охлаждение некоторых графических процессоров можно значительно улучшить, затянув винты, добавив шайбы или заменив стандартную термопасту. Это , очень зависит от вашего графического процессора, вплоть до конкретной версии. Так что будьте очень осторожны с внесением любых изменений, которые, как вы не уверены, безопасны и оправданы.

Отрегулируйте настройки мощности

Если вы играете на ноутбуке, подключите его к розетке.Графический процессор (и центральный процессор) обычно сбрасывает газ, когда ноутбук отключен от сети, потому что литий-ионные батареи не могут обеспечить достаточную выходную мощность для максимальной производительности без разрушения батареи. В BIOS может быть параметр для отключения регулирования ЦП, но у графических процессоров есть жестко запрограммированные инструкции по снижению расхода заряда батареи, которые вы не можете изменить.

Однако изменение настроек питания настольных и портативных компьютеров, подключенных к розетке, может повысить производительность графического процессора.

Шаг 1: Нажмите кнопку «Пуск», а затем значок шестеренки, расположенный на левом краю меню «Пуск».

Шаг 2: Выберите Система в приложении Настройки .

Шаг 3: Панель Display отображается по умолчанию. Выберите Power & Sleep , расположенный слева.

Шаг 4: Прокрутите вниз и выберите ссылку Additional Power Settings .

На ноутбуках вы можете открыть ту же панель, щелкнув правой кнопкой мыши значок батареи, расположенный рядом с системными часами. Выберите Power Options во всплывающем меню.

Шаг 5: Выберите опцию High Performance .

Если щелкнуть ссылку Изменить параметры плана , Windows 10 отобразит ссылку Изменить дополнительные параметры питания . Щелкните по нему, и появится всплывающее окно со списком всех настроек, подпадающих под High Performance . Не изменяйте эти параметры, если вы хорошо знакомы с Windows 10.

Обновление других компонентов ПК Билл Роберсон / Digital Trends

Хотя в вашей системе может быть установлен потрясающий графический процессор, это лишь один из многих компонентов, составляющих один компьютер.Ваш процессор, память и хранилище влияют на то, насколько быстрым и быстрым выглядит ваш компьютер, а хороший процессор может помочь значительно повысить частоту кадров, особенно при более низких разрешениях.

Помните, что в то время как GPU выполняет большую часть тяжелого визуального листинга, CPU обрабатывает математику, физику, искусственный интеллект (AI), обработку ввода, выполнение кода и многое другое. Кроме того, он должен обрабатывать все остальное, что работает вне вашей игры, как и все службы Windows 10. Вам все еще нужен приличный процессор, чтобы ваш потрясающий графический процессор действительно сиял.

Также важно учитывать системную память, поскольку текущий рыночный стандарт составляет 16 ГБ, что составляет 8 ГБ как минимум. Нет ничего плохого в том, чтобы попытаться сэкономить несколько долларов, но покупка дешевой может означать жертву скоростью и производительностью. Если вы заметили задержки во время игры, возможно, пришло время подумать об обновлении, но это не значит, что вам нужен самый дорогой вариант.

Однако перед обновлением убедитесь, что на самом деле есть узкое место. С точки зрения игр между процессором и графическим процессором есть деликатные отношения, и в разных играх эти два компонента нагружаются по-разному (многие из них А.Персонажи, управляемые I., например, нагружают ЦП больше, чем ГП). Лучший способ убедиться, что узкие места — это проблема, — проверить загрузку вашей системы с помощью диспетчера задач. На вкладке производительности отображается загрузка вашего графического процессора, памяти, диска, сети и процессора. Если загрузка вашего процессора постоянно выше, чем загрузка вашего графического процессора во время игры, у вас, вероятно, есть узкое место в процессоре.

Выявление и устранение узких мест — не точная наука, но если вы постоянно видите, что ваш процессор работает в играх, а ваш графический процессор в порядке, возможно, пришло время обновить процессор.Если вы плохо разбираетесь в характеристиках процессоров, вы можете проверить эти списки лучших процессоров AMD и лучших процессоров Intel.

Рекомендации редакции

Как легко снизить тактовую частоту вашего GPU

Большинство игроков разгоняют своих компьютеров (как CPU, так и GPU), чтобы получить прирост производительности . Понижение тактовой частоты вашего GPU снижает тактовую частоту вашего GPU .

Если вы используете компьютер в основном для работы в Интернете или только для легких игр , разогнание вашего GPU вполне подойдет .Это должно отражать более низкие счета за электроэнергию без ущерба для производительности .

Есть и другие причины , по которым людям нужен , чтобы разогнать свою видеокарту. Если вы живете в западных странах, летний сезон — отличное время для разгона .

Температура в этом сезоне может подняться до ° C и достигнуть 5–10 ° C . Другие факторы, которые способствуют такому повышению температуры, включают , имеющий плохо оптимизированный воздушный поток .Также может случиться так, что вам нужно заменить термопасту.

Теперь возникает реальный вопрос:

Что такое выгода ?

Это похоже на эффект домино . Поговорим об этом подробнее.

  • Низкое энергопотребление — снижение тактовой частоты вашего графического процессора приводит к замедлению работы оборудования — это означает, что оно потребляет на меньше энергии .
  • Cooler GPU — Поскольку ваше оборудование работает на более низких скоростях, оборудование не заставляет производить больше продукции.Меньшее использование приводит к более низким температурам.
  • Более тихий вентилятор — при более низких температурах вы слышите меньше шума от вентиляторов. Разогнанный графический процессор требует более высоких оборотов вентилятора, чтобы не отставать от нагрузки и одновременно охлаждать оборудование.

Если вы уверены, что выиграет от разгона вашей видеокарты, затем переходите к шагам ниже.

От гигагерца до графического процессора: что все это значит?

RAM
Оперативная память, или RAM, отслеживает данные на различных вкладках, открытых на вашем компьютере, чтобы вы могли легко просматривать и получать к ним доступ. Если у вас открыты сотни вкладок браузера, оперативная память может быть перегружена и некоторые данные будут храниться на более медленном жестком диске. Если вы активный пользователь, имеющий дело с большими изображениями, большими файлами или несколькими программами, работающими одновременно, чем больше оперативной памяти, тем лучше. Однако увеличение ОЗУ приведет к увеличению затрат.

ОЗУ

не является прямым показателем скорости обработки, но позволяет повысить производительность, особенно в загруженной системе. Как правило, 8 гигабайт — хороший объем для начала работы обычного пользователя, но вы можете проверить, есть ли в рассматриваемой системе слоты расширения на будущее.Если вы занимаетесь чем-то серьезным в графическом дизайне или видео, вам понадобится как минимум 16 ГБ ОЗУ.

Графика
На вашем компьютере есть несколько вариантов графики, и какой из них лучше всего вам подходит, в значительной степени зависит от того, что вы планируете делать с машиной. Если вы используете программы САПР, увлекаетесь играми, много работаете с видео или изображениями, отдельная видеокарта идеальна.

Многие процессоры теперь поставляются со значительной встроенной мощностью обработки графики или предлагают интегрированный графический чипсет, встроенный в материнскую плату компьютера.Этих графических возможностей обычно достаточно для большинства пользователей для обработки данных, просмотра веб-страниц и использования социальных сетей (включая базовое редактирование изображений и игры). Интегрированная графика — более дешевый вариант, но не такой мощный, как выделенная видеокарта.

Для видеокарт непросто определить, какая из них лучше. Чтобы сузить круг вопросов, выберите Nvidia или AMD. Хотя есть много компаний, производящих видеокарты, только эти две делают GPU для работы с графикой.Другой способ сузить круг — это стоимость. Видеокарты стоят от 100 до 1000 долларов. Если вы потратите где-то на среднем уровне, вы, вероятно, получите очень хорошие графические возможности, но есть хорошие варианты от 250 до 300 долларов.

Существуют также отдельные графические процессоры (GPU) для редактирования видео.

Видеокарты похожи на отдельные миниатюрные компьютеры с ядрами (называемыми вычислительными блоками) и необработанными тактовыми частотами. У них также есть собственная оперативная память. Чем больше оперативной памяти у вашей видеокарты, тем больше пикселей она может отображать в памяти одновременно, что приводит к запуску игр с более высоким разрешением и более высокой частотой кадров.

Если вы решили, что вам нужна видеокарта, ознакомьтесь с этими замечательными вариантами, чтобы увидеть, есть ли в списке нужная карта.

Экран
Хотя мы рассматриваем в качестве примера ноутбук, те же основные принципы применимы и к настольному компьютеру. На дисплей следует обращать внимание на разрешение, цветовую гамму, яркость и скорость отклика пикселей.

Разрешение
Это довольно просто — чем больше пикселей на вашем дисплее, тем четче выглядят изображения. На вашем компьютере воспроизводился фильм, но в высоком разрешении вы могли заметить выбившиеся седые волосы на голове любимого актера. Экран должен быть не менее 1920 x 1080 пикселей, что также известно как разрешение 1080p или «Full-HD». Если вы можете себе это позволить или для работы это необходимо, выберите разрешение выше 1080p, чтобы уловить более мелкие детали.

Рассматриваемый нами пример системы имеет разрешение 3840 x 2160 пикселей, что превосходно. Он также имеет возможность сенсорного экрана, а это означает, что вам не нужно использовать только клавиатуру.Однако вот почему я попросил Dell убрать сенсорный экран из моего последнего списка сборки ноутбуков: сенсорный экран увеличивает размер и вес системы, имеет плохие углы обзора и значительно сокращает время автономной работы. Кроме того, это увеличивает общую стоимость. Подумайте, действительно ли вам нужно тыкать и смахивать экран компьютера, или вы можете обойтись без него.

Общие сведения о пропускной способности видеопамяти


Пропускная способность памяти видеопамяти

Основы пропускной способности памяти

Одна из главных вещей, которые нужно учитывать при выборе видеокарта это пропускная способность памяти видео RAM. Пропускная способность памяти — это в основном скорость видеопамяти. Это измеряется в гигабайт в секунду (ГБ / с). Чем больше у вас пропускная способность памяти, тем лучше. Видеокарта с более высокой пропускной способностью памяти может рисовать быстрее и потреблять больше качественные изображения. Но видеокарты — это не только пропускная способность памяти. Вы также должны учитывать скорость рисования GPU. Нет смысла покупать видеокарту с очень быстрым GPU и ограниченным пропускная способность памяти, потому что память будет узким местом.GPU будет тратить много времени на бездействие в ожидании медленной видеопамяти. Посредством тот же токен, вы не хотите получать видеокарту с медленным графическим процессором и очень высокой пропускная способность памяти. Эта страница касается только пропускной способности памяти.

Пропускная способность памяти определяется тактовой частотой памяти, типом памяти и ширина памяти. Тактовая частота памяти — это тактовая частота микросхем памяти. Текущие (2006 г.) микросхемы памяти имеют тактовую частоту в диапазоне примерно 167 МГц к 1000 МГц.Наиболее распространенный тип памяти — удвоенная скорость передачи данных. (ГДР) это означает, что он передает два значения памяти для каждого цикла тактовой частоты памяти. Существуют также другие типы DDR, такие как DDR2, GDDR3 и GDDR4, и они также передача с удвоенной тактовой частотой памяти. Некоторые очень старые видеокарты все еще используют единая скорость передачи данных (SDR), которая передает одно значение за такт. Память ширина обычных карт колеблется от 32 бит до 256 бит. Максимум Теоретическая пропускная способность памяти — это произведение часов памяти, передачи за такт в зависимости от типа памяти и ее ширины.За Например, видеокарта с видеопамятью DDR 200 МГц и шириной 128 бит имеет полоса пропускания 200 МГц умножить на 2 умножить на 128 бит, что дает 6,4 ГБ / с. Эта таблица содержит видеопамять. пропускная способность для многих видеокарт в своем Колонка скорости RAM. Если вы посмотрите на эти пропускные способности памяти, вы увидите, насколько они различаются между быстрыми видеокартами и медленными.

Будьте осторожны с шириной памяти при покупке младших видеокарт!

Если проверить таблицу видеокарты внимательно, вы заметите, что есть некоторые видеокарты низкого уровня, которые могут поставляются с шириной памяти 64 или 128 бит.Также есть карты который может иметь ширину 32 или 64 бита. Например, Radeon 9550 поставляется как в 128-битной модели и 64-битная модель. В компании проектируют Графические процессоры для поддержки определенной ширины памяти. Ширина памяти соответствует потребностям GPU. К сожалению, производители видеокарт часто делают немного дешевле. модели, которые используют более дешевую видеопамять, которая использует только половину ширины доступно на GPU. Это сокращает пропускную способность памяти вдвое и почти вдвое. всегда серьезно вредит производительности видеокарты.Эти «полуширины» модели обычно проводят много времени с графическим процессором, ничего не делая в ожидании чтобы медленная видеопамять отреагировала. Действительно печально то, что карты полной ширины обычно лишь немного дороже, чем карты половинной ширины. открытки. Карты половинной ширины, как правило, очень плохая сделка, если вам вообще не все равно. о производительности. К сожалению, многие сайты, продающие это видео карты не сообщают вам ширину памяти и не дают неверное значение. я не просто говорю о сайтах-однодневках.Некоторые из крупнейших веб-сайтов, список ширины памяти часто перечисляет значение полной ширины даже для полуширины версии видеокарты. А если вы покупаете видеокарты в рознице хранить, читая спецификации на коробке, у вас все еще проблемы, потому что большинство карт половинной ширины вообще не указывают ширину своей памяти.

Итак, вопрос в том, как определить, покупаете ли вы половинную ширину или карта во всю ширину? Некоторые производители достаточно любезны, чтобы предоставить точные спецификации, которые обеспечивают тактовую частоту и ширину памяти.Так что самый безопасный способ быть уверенным — это поискать именно ту модель, которая вас интересует, на на сайте производителя и ознакомьтесь с техническими характеристиками. Говоря от опыта, с низкими картами у вас есть примерно 50/50 шансов получить необходимую информацию с сайта производителя. И если информация есть на сайтах производителя, все равно не всегда можно доверять Это. Я видел несколько сайтов производителей, на которых значение полной ширины для некоторых моделей половинной ширины.Сомневаюсь, что это сделано специально. Это обычно просто выглядит ошибкой. Вы также должны быть осторожны, когда чтение спецификаций видеокарты, потому что многие вещи, которые звучат как ширина видеопамяти на самом деле тут ни при чем. Ни один из следующие описания имеют какое-либо отношение к размеру памяти.

  • 128-битная точность цвета с плавающей запятой обеспечивает больший диапазон цветов и яркости
  • Высокооптимизированный 128-битный 2D-движок с поддержкой новых расширений WindowsXP GDI
  • 128-битная точность студийного качества с плавающей запятой на всем графическом конвейере
  • Встроенная поддержка 128-битных режимов рендеринга с плавающей запятой, 64-битных с плавающей запятой и 32-битных целочисленных режимов.
  • Настоящая 128-битная студийная точность цвета
  • 256-битная графическая архитектура
  • 64-битная фильтрация текстур с плавающей запятой и смешивание
  • Частота ядра 250 МГц
  • 3.Скорость заполнения 8 миллиардов текселей / сек

Все последующие описания относятся к системам видеопамяти.

Описание Тип памяти Часы памяти Ширина памяти Пропускная способность
64/128-битный расширенный интерфейс памяти?? 64 бит или 128 бит?
128-битный расширенный интерфейс памяти?? 128 бит?
16/32 МБ SDRAM SDR???
128/256 МБ DDR SDRAM DDR???
Частота памяти 400 МГц? 400 МГц??
8. Пропускная способность памяти 0 ГБ / сек (128 бит, 500 МГц) DDR 250 МГц 128 бит 8,0 ГБ / с
Пропускная способность памяти 30,4 ГБ / с??? 30,4 ГБ / с

Во многих случаях вы можете определить ширину памяти, внимательно изучив изображения видеокарты, доступные на многих сайтах которые их продают. Newegg, например, Обычно показывает картинки обеих сторон видеокарты.Вы также можете часто используйте Google, чтобы найти в Интернете обзоры видеокарта, которая включает в себя изображения крупным планом. Но чтобы найти память ширину из изображений, вам нужно узнать некоторую загадочную информацию о графических процессорах, печатные платы и упаковка RAM. Если ты не хочешь этому учиться (интересна только компьютерным фанатам) информации, тогда вам стоит просто попытаться найти модель, у которой есть информация о ширине памяти на сайте производителя. Но если у вас ограниченный выбор карточек, вы можете застрять, узнав, как чтобы определить ширину памяти, внимательно посмотрев на карту.Как правило, это младшие видеокарты, которые не раскрывают свою истинную пропускную способность памяти. Если вы покупаете недорогую карту, тогда вам обязательно нужно быть осторожным, чтобы избежать модели половинной ширины. Во-первых, эти карты не так быстры, и последнее, что вам нужно, — это усугубить ситуацию, купив карту с малым объемом памяти. пропускная способность.

Остальная часть этого раздела носит технический характер, поэтому вам, вероятно, следует продолжайте, если вы не можете найти нужную информацию на сайт производителя (или просто любите быть предельно осторожными при покупке вещи).Первое, что вам нужно знать, это как выглядит видеопамять. А В видеокарте много кремниевых чипов, но только некоторые из них являются чипами RAM. В На рисунках ниже микросхемы ОЗУ отмечены зеленым знаком «X».

На видеокарте обычно четыре или восемь микросхем ОЗУ, но некоторые очень У младших карт их всего одна-две. Иногда оперативная память все чипы находятся на лицевой стороне карты, а в других случаях — половина чипов RAM находятся спереди, а половина — сзади. Все микросхемы ОЗУ идентичный.Их легко идентифицировать, потому что они расположены очень близко к GPU. Графический процессор — это большой чип с большим радиатором и часто с вентилятором. Некоторые высокопроизводительные видеокарты также имеют радиаторы, закрывающие чипы оперативной памяти. В такие случаи, вам просто нужно идти по спецификациям производителя так как вы не можете увидеть фишки на изображениях.

Теперь вам нужно проверить пакеты микросхем RAM. «Пакет» относится к черный пластиковый пакет, в который заключен чип. На изображениях ниже показаны наиболее распространенные пакеты микросхем RAM.

Вам нужно проверить, какой тип упаковки используют чипы RAM. TSOP (тонкие маленькие наброски пакета) имеют булавки (маленькие металлические проволочки, торчащие по бокам черная пластиковая часть) на противоположных сторонах упаковки. TSOP 66 насчитывает 66 булавки и очень распространенная упаковка. TSOP 86 имеет 86 контактов и намного меньше общий. Возможно, вам придется внимательно посмотреть изображения видеокарты и посчитайте булавки, чтобы понять, на какой из них вы смотрите.TQFP 100 (тонкий quad flat pack) упаковка имеет в общей сложности 100 контактов, торчащих со всех четырех сторон своего пакета. BGA 144 (сетка шариков) на самом деле не имеет контактов что вы можете видеть. Под корпусом 144 шарика припоя, но это нетрудно идентифицировать пакеты BGA, потому что это просто небольшие пакеты с нет видимых контактов.

Причина, по которой вам нужно распознать пакет чипа, заключается в том, что он помогает вам угадайте, насколько «широкая» микросхема ОЗУ. Чипы ОЗУ — это определенное количество бит широкий.Наиболее распространенные микросхемы ОЗУ, используемые сейчас (конец 2006 г.), — это 16-битные или 32 бита. Обычно они обозначаются как «x16» и «x32», которые произносится «на 16» и «на 32». Единственный способ быть абсолютно уверенным в ширина чипа RAM должна считывать номер производителя с верхней части чип, а затем найдите его (обычно довольно легко с Google). Но виды картинок вы результаты поиска на веб-сайтах редко бывают достаточно точными, чтобы позволить вам читать числа, поэтому вы застряли в предположении о ширине ОЗУ, глядя на пакеты.TSOP 66 может иметь максимальную ширину 16 бит. TSOP 66 иногда может быть 8 бит, но это очень редко для видеокарт любого типа, столкнуться. Если вы смотрите на TSOP 66 на видеокарте, построенной примерно с 2000, это почти наверняка чип ОЗУ x16. TSOP 66 является «стандартным» x16 RAM, поэтому он очень распространен. TSOP 86 встречается гораздо реже и обычно чип x32. TQFP 100 почти всегда представляет собой микросхему x32. Пакеты BGA могут немного различаются, но BGA RAM на видеокартах почти всегда x32.Так что если ты если посмотреть на TSOP 66, то, вероятно, это чип x16. Если у вас есть другие три пакета, показанных выше, вероятно, это микросхема x32. Если у вас есть что-нибудь иначе, тогда вам просто нужно обойтись тем, что вы можете найти на сайт производителя.

Чтобы выяснить общую ширину памяти практически всех современных видеокарт, все вам нужно умножить ширину каждого ОЗУ на общее количество ОЗУ. фишки на карте. К сожалению, из «умножения» есть исключения. правило, но они довольно редки.Некоторые очень старые видеокарты не следуют правило, но вы все равно не должны их покупать. Еще одно исключение — карта, где правило умножения дает результат, в два раза превышающий максимальный количество бит, поддерживаемых графическим процессором. В этом случае, конечно, настоящая память ширина — это максимальное количество бит, поддерживаемое графическим процессором. Этот случай подходит иногда, когда производитель использует одну и ту же печатную плату для двух моделей: один с определенным объемом ОЗУ (например, 128 МБ), а другой с вдвое большим объем оперативной памяти (например, 256 МБ), но обе модели поддерживают максимальную ширину памяти.

Если вы рассматриваете недорогие карты, то есть один очень распространенный случай, когда Берегись. На изображении выше показан GeForce FX 5700 LE с 128 мегабайтами. видеопамяти. У этой конкретной карты есть две модели: 128 МБ модель и модель 256 МБ. Она имеет место для восьми микросхем RAM на печатной плате, но модель 128 МБ использует только четыре микросхемы ОЗУ. Модель 256 МБ имеет все восемь микросхем оперативной памяти. Если вы проверите Столбец ширины ОЗУ в таблице видеокарты, вы увидите, что ширина FX 5700 LE может быть 64 бит или 128 бит.Многие производители просто сделайте одну печатную плату, чтобы сделать модели на 128 и 256 МБ. Тогда они включают только четыре микросхемы RAM, чтобы сделать карты 128 МБ. К несчастью, это уменьшает ширину памяти вдвое во всех примерах, которые мне удалось проверить. Показанная выше карта — это карта шириной 64 бита. Чрезвычайно часто можно найти веб-сайты, продающие версию на 128 МБ, которые утверждают, что это карта шириной 128 бит даже если на самом деле он имеет ширину 64 бита. Вы также часто встречаетесь с этим случаем с GeForce FX 5200s, Radeon 9200s, Radeon 9250s, Radeon 9550s и другие.

Когда у вас есть ширина памяти, вы можете использовать ее, а также тип памяти и память clock для расчета пиковой пропускной способности памяти. Если вы смотрите видео карта с двумя разной шириной памяти, то она определенно стоит проблема, чтобы убедиться, что вы знаете, что получаете. Маркетинг спецификации на модели с меньшей емкостью памяти редко выходят за рамки их способ указать на недостатки этой модели. Если маркетинг информация не четко указывает пропускную способность памяти, тогда вы обычно можете предполагать худшее.А если вы ищете недорогие видеокарты, будьте абсолютно обязательно избегайте моделей с половиной максимальной ширины памяти. Карты с половина пропускной способности памяти обычно немного дешевле, но их производительность намного ниже.

HyperMemory и TurboCache

И ATI, и NVIDIA (два больших GPU производители) разработали недорогие видеокарты, которые усложняют всю память проблема с пропускной способностью. Реализация NVIDIA называется TurboCache. ATI называется HyperMemory.Карты, которые реализуют TurboCache, часто называют моделями «TC» и HyperMemory. часто сокращается до «HM». Вам нужно остерегаться таких карт потому что их системы памяти сильно отличаются от большинства видеокарт.

Оба типа видеокарт занимают баран от материнская плата использовать как видео RAM. Эти видеокарты имеют общий полезный объем ОЗУ, который является суммой обоих видеопамять на видеокарте плюс ОЗУ, заимствованное из материнская плата.Эти карты производятся, потому что дешевле заимствовать ОЗУ с материнской платы, чем включать «настоящую» видеопамять на видеокарта. К сожалению, это часто приводит к очень медленной видеокарте.

Как видеокарты HyperMemory, так и TurboCache могут немного сбиться с пути, когда подходит к их спецификациям. Они стремятся подчеркнуть общую полезность видео. RAM (которая включает RAM, заимствованную у материнской платы) и фактический объем видеопамяти на карте. Например, продается обычная модель как видеокарта «128 мегабайт», но на самом деле она содержит только 32 мегабайта реальной видеопамяти.Остальные 96 МБ заимствовано с материнской платы. Вы продадите намного больше видеокарты, утверждающие, что имеют 128 МБ, чем видеокарта, утверждающая, что они имеют 32 МБ так что вы можете угадать, какое число напечатано на коробке большими буквами.

Но эта страница о пропускной способности памяти. Здесь тоже есть такие карты. часто обманчиво продается. HyperMemory и TurboCache получают доступ к материнской плате RAM через PCI-Экспресс x16 слот. Такой слот имеет пиковую скорость чтения или 4 ГБ / с и может одновременно писать со скоростью 4 ГБ / с.Вы можете узнать больше об этом виде слота на этой странице. HyperMemory и TurboCache может обращаться к ОЗУ материнской платы одновременно с видеопамятью. на карте. Недобросовестные производители иногда указывают пропускную способность своей памяти как сумма трех значений пропускной способности: фактическая пропускная способность видеопамяти, Скорость чтения PCI-Express x16 и скорость записи PCI-Expess x16. Поэтому они фактически добавляют 8 ГБ / с к реальной пропускной способности памяти для их маркетинга технические характеристики. Это сильно преувеличивает реальную пропускную способность памяти карта.Хотя это правда, что это даст вам теоретическую пиковую память пропускной способности, вы даже не приблизитесь к этому числу в реальной жизни. Первый из В общем, видеокарты читают из своей оперативной памяти гораздо больше, чем записывают в нее. Добавление и скорость чтения 4 ГБ / с, и скорость записи 4 ГБ / с просто смехотворны. Во-вторых, нужно помнить, что видеокарта — не единственное, что есть в компьютер, которому требуется доступ к оперативной памяти материнской платы. Есть ненасытный Потребитель полосы пропускания ОЗУ материнской платы называется ЦПУ что делает его очень занятым.Видеокарта должна иметь общий доступ с ЦП, поэтому он редко приближается к теоретическому пределу чтения 4 ГБ / с.

Фактическая оперативная память на видеокарте обычно представляет собой очень небольшой объем памяти. который имеет очень маленькую ширину памяти, например 32 или 64 бита. Это приводит к очень низким реальная пропускная способность видеопамяти во многих моделях. В HyperMemory и TurboCache карты, частота видеопамяти половинной ширины видеопамяти обычно выше чем тактовая частота для той же модели с ОЗУ полной ширины, поэтому медленные модели обычно быстрее половины скорости полноразмерных моделей.Но они все еще очень медленно. Многие из этих карт имеют лишь крошечный объем реальной видеопамяти. вроде 16 или 32 мегабайта. Таким образом, большая часть данных видеокарты попадет на материнская плата, если вы пытаетесь запускать какие-либо современные игры. Один положительный момент заключается в том, что видеокарты достаточно умны, чтобы хранить наиболее часто используемые данные в видеопамять на видеокарте. Это смягчает необходимость доступа к данным хранится в относительно медленной ОЗУ материнской платы.

Поскольку графический процессор может перекрывать доступ как к реальной видеопамяти, так и к оперативной памяти на материнской плате, несправедливо указывать пропускную способность памяти как скорость реальной видеопамяти. Но опять же, он не приближается к видеопамять плюс число 8 ГБ / с, которое часто встречается в маркетинговой литературе. В Единственный точный способ проверить производительность — сравнить с «обычным» видео карты, которые не занимают оперативную память материнской платы. Этот страница дает довольно хорошее сравнение карт HyperMemory и TurboCache к обычным видеокартам.


GPU Base, Boost, Typical и Peak clocks, в чем разница?

С выпуском Radeon Vega Frontier AMD представила новую терминологию для тактовой частоты графического процессора.Хотя никто на самом деле не спрашивал AMD о новых именах, на самом деле они имеют немного другое значение по сравнению с конкурентами и предыдущим поколением.

ГРАФИЧЕСКИЕ ЧАСЫ

Термин базовые часы существует уже давно. Раньше у нас была частота ядра , частота ядра, частота графики и частота графического процессора , все эти термины означали одно и то же. У нас также было что-то под названием Procesor Clock , которое в основном представляло собой графические часы, удвоенные для работы ядер CUDA (более известные как Shaders Clock ).Однако настоящая революция произошла с PowerTune Boost и GPU Boost.

Первая итерация NVIDIA GPU Boost автоматически регулирует тактовые частоты в зависимости от целевой мощности. В GPU Boost 2.0 основное внимание уделялось целевому значению температуры с фиксированными точками напряжения. Последняя версия GPU Boost 3.0 принесла ручное регулирование точки напряжения.

С тех пор, как были введены повышающие тактовые частоты, базовая частота стала в некотором смысле минимальной гарантированной тактовой частотой, что означает, что частота графического процессора никогда не будет понижаться во время игр или других интенсивных приложений.В то время как частота разгона была самой высокой гарантированной тактовой частотой, которую могла достичь ваша карта, но не гарантировалось, что она останется на этой частоте (для карт Radeon). Ситуация немного изменилась для видеокарт GPU Boost 2.0 и более поздних версий 3.0.

Для архитектуры Pascal частота ускорения является заниженной, потому что есть вероятность, что вы никогда не увидите такие часы в играх. В GPU Boost 3.0 появился новый термин под названием « теоретическая максимальная частота» (вы можете найти его на слайдах).Эти часы не являются частью официальных спецификаций, они существуют, потому что фактическая тактовая частота почти всегда будет выше, чем официальная тактовая частота для карт Pascal. Он также выше по сравнению с архитектурой Maxwell на основе карт, что немного сбивает с толку.

Между тем, архитектура AMD Polaris официально имеет два термина: базовая частота и повышенная частота . Первый — это гарантированная минимальная тактовая частота, тогда как второй — максимальная гарантированная тактовая частота.Итак, что отличается от тактовой частоты NVIDIA, так это то, что блок ускорения AMD часто является максимальной тактовой частотой для видеокарты, что NVIDIA даже не включает в официальные спецификации. Частота разгона AMD не всегда может оставаться на этой частоте, но, конечно, не будет выше.

Запуск Vega Frontier принес еще два условия, которые AMD никогда официально не объясняла. Мы предполагаем, что типичная частота двигателя — это то, что мы называем базовой частотой. Это означает, что частота никогда не должна снижаться.В отличие от Polaris, пиковая частота двигателя Vega — это не то же самое, что и частота разгона. У большинства карт Polaris нет проблем с достижением объявленной частоты разгона, тогда как у Frontier проблемы с достижением пиковой частоты двигателя без корректировки целевых значений мощности и температуры. Ситуация может измениться с Radeon RX Vega, которая теоретически может достичь более высоких частот, ближе к пиковой частоте двигателя. Фактическая тактовая частота также может быть лучше для Frontier с водяным охлаждением, но пока ни у кого не было возможности проверить это.

Итак, что вам нужно помнить из этого поста, так это то, что тактовая частота ускорения NVIDIA почти всегда ниже, чем фактическая тактовая частота, в то время как тактовая частота ускорения AMD является максимальной и часто является типичной тактовой частотой, на которой будет работать ваша карта. Пиковая частота двигателя Vega вряд ли достижима, и ее не следует рассматривать как тактовую частоту разгона (по крайней мере, пока). Вот почему расчет «теоретической максимальной вычислительной мощности» не имеет смысла для тактовых импульсов разгона / пика, поскольку они ниже для Паскаля и завышены для Vega.



Intel резко увеличивает тактовую частоту графического процессора, поскольку чип Xe обнаружил 1,65 ГГц

Интегрированный графический процессор Intel Xe был замечен работающим с тактовой частотой 1,65 ГГц, и не заблуждайтесь, если бы поставляемый продукт мог поддерживать такую ​​скорость, это было бы огромным достижением для разработки графических чипов Intel.

Intel застряла на максимальной частоте разгона 1–1,2 ГГц для своих графических чипов со времен Skylake, а ее мобильные чипы, как правило, находятся в нижней части диапазона. Однако интегрированный графический процессор, построенный на графической архитектуре Intel Xe, похоже, постепенно преодолевает предыдущие барьеры тактовой частоты.

Intel (R) Iris (R) Xe GraphicsOverClocked1650MHz pic.twitter.com/kFBMDAWXjyAugust 31, 2020

Подробнее

Чип 1,65 ГГц был обнаружен в базе данных SiSoft Sandra серийным лидером TUM_APIS кто обнаружил, что процессор Intel Tiger Lake Core i7 1185G7 работает на частоте 1.55 ГГц на прошлой неделе.

Последняя утечка происходит на 100 МГц быстрее и имеет TDP 28 Вт, хотя, как сообщается, возможен разгон на 26%, в результате чего исходная тактовая частота составляет немногим более 1300 МГц.

Возможно, это будет аналог нового поколения процессора Ice Lake мощностью 28 Вт, Core i7 1065NG7, который используется исключительно в продуктах Apple MacBook. Хотя без подтверждения точного чипа, эта утечка могла быть связана с маломощной дискретной видеокартой Intel для настольных ПК, DG1, или какой-то неизвестной конфигурацией, хотя в настоящее время это кажется менее вероятным.Тактовая частота, безусловно, соответствует тому, что мы ожидаем от настольного графического процессора.

Чип оснащен 768 ALU в 96 исполнительных модулях (или вычислительных модулях, как указано в базе данных SiSoft), что в целом относится как к топовым iGPU Tiger Lake, так и к дискретной карте Intel DG1.

Однако неудивительно, что Intel удалось разогреться с помощью Tiger Lake. 10-нанометровый процесс SuperFin компании представляет собой новую оптимизацию существующего 10-нанометрового процесса и обещает множество дальнейших оптимизаций для повышения производительности.

Нам не придется долго ждать, по крайней мере, некоторых ответов относительно следующего поколения Intel, или, по крайней мере, нашего первого взгляда на Intel Xe. Intel назначила мероприятие по анонсу Tiger Lake на завтра, 2 сентября.

Все это потенциально отличные новости для тех из нас, кто надеется играть на ходу — это хорошая неделя для компьютерных игр.

.
Обновлено: 01.03.2021 — 13:40

Добавить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *