+79268855999
(Viber, WhatsApp, Telegram)

Энергопотребление современных видеокарт. Часть 1 – платы на чипах от ATI. Энергопотребление видеокарт таблица. Потребление видеокарт nvidia


Энергопотребление современных видеокарт. Часть 2: NVIDIA против ATI - Лаборатория

Энергопотребление и тепловыделение современных графических плат – вопрос, который интересует почти каждого, кто собирается покупать новую видеокарту или производить более широкую модернизацию своей системы. В первой части статьи я поднял вопрос энергопотребления видеокарт, постаравшись максимально корректно измерить эту характеристику у плат, основанных на графических процессорах от ATI. Сегодня, во второй части, будут испытаны графические платы, основанные на чипах от NVIDIA.

Методика измерения энергопотребления со времени выхода первой части статьи не изменилась – в каждую из цепей питания видеокарты включается шунт, на котором измеряется падение напряжения. По величине падения напряжения и сопротивлению шунта вычисляется потребляемый по каждой из цепей питания ток, а, зная ток и напряжение, потребляемую мощность узнать проще простого. У видеокарт, имеющих разъемы для дополнительного питания, шунт включался как в цепи дополнительного питания...

...так и в цепи питания, идущие через AGP – соответствующие контакты разъема AGP я изолировал, подавая питание в обход разъема:

У плат, питающихся только от разъема AGP, шунт включался, разумеется, только в цепи питания 3.3В, 5В и 12В, идущие через AGP. Более подробно о методике измерения энергопотребления рассказано в предыдущей части статьи.

Инструментарий со времени выхода первой части также не изменился: главные участники тестирования – профессиональный цифровой мультиметр UT70-D от UNI-T...:

... и шунт собственного изготовления:

Напомню условия тестирования видеокарт.

Тестовая система и условия тестирования

Платы были протестированы в составе тестовой системы со следующей конфигурацией:

  • Процессор: AMD Athlon 64 3400+;
  • Материнская плата: ASUS K8V-SE;
  • Оперативная память: 2x512MB TwinMOS PC3200 CL2.5

Программное обеспечение:

  • Windows XP Pro SP1;
  • DirectX 9.0b
  • Драйвер ForceWare версии 61.34

Энергопотребление видеокарт измерялось в двух режимах: "Idle" – "Простой" и "Burn" – "Загрузка". В режиме "Idle" никакие приложения запущены не были, на экране – рабочий стол Windows с россыпью стандартных иконок, видеорежим – 1280х1024х[email protected] Гц. Для режима "Burn" была выбрана одна из сцен Far Cry в режиме 1600х1200 при форсировании сглаживания 4х и анизотропной фильтрации 16х (8х на платах семейства GeForce FX). На уровне Training было сделано сохранение игры, которое впоследствии использовалось на всех видеокартах для обеспечения тестирования плат в одинаковых условиях.

NVIDIA GeForce 6800 Ultra

NVIDIA GeForce 6800 Ultra – флагман новой линейки графических процессоров от NVIDIA. Серия чипов GeForce 6800 производится по техпроцессу 0.13 мкм и имеет около 220 млн. транзисторов. Самый скоростной чип, GeForce 6800 Ultra, имеет включенными все 16 пиксельных конвейеров и работает на частоте 400 МГц. Видеокарту на базе GeForce 6800 Ultra представляет Chaintech с моделью Apogee AA6800 Ultra:

Плата выполнена по референс-дизайну: стандартный кулер, накрывающий сразу и графический процессор, и чипы памяти, два разъема для подключения дополнительного питания и радиатор, накрывающий силовые элементы стабилизаторов питания графического процессора и видеопамяти. Плата основана на графическом процессоре NVIDIA GeForce 6800 Ultra и имеет на борту 256 МБ видеопамяти GDDR3. Номинальные частоты графического процессора и видеопамяти составляют 400/1100 МГц. При разгоне частоты поднялись ненамного: до 440/1250 МГц.

Итак, результаты тестирования:

А вот и первый сюрприз! Еще в первой части статьи я говорил о том, что наличие двух разъемов для подключения дополнительного питания на NVIDIA GeForce 6800 Ultra – не повод для паники. Плата потребляет лишь немногим больше, чем топовая модель от конкурента – ATI RADEON X800 XT Platinum Edition. В режиме загрузки без разгона GeForce 6800 Ultra потребляет 72.09 Вт, в то время как RADEON X800 XT PE – 63.23 Вт. Таким образом, энергопотребление в режиме загрузки у NVIDIA GeForce 6800 Ultra оказывается больше, чем у конкурента, всего лишь на 14%.

В режиме простоя энергопотребление GeForce 6800 Ultra составляет 29.28 Вт против 17.62 Вт у RADEON X800 XT PE. Разница в процентах здесь получается более солидная – флагман новой серии от NVIDIA в режиме простоя потребляет больше, чем соперник, примерно на 66%.

Примечательно, что, в отличие от топовых чипов серии GeForce FX, графические процессоры серии GeForce 6, как и ATI RADEON X800, не используют снижение тактовой частоты и понижение напряжения питания ядра – частота GeForce 6800 Ultra всегда равна 400 МГц, а напряжение, согласно замерам на плате от Chaintech, составляет около 1.45 В.

Что ж, 66% – выглядит страшно, но в абсолютном значении эти 66% составляют примерно те же 10 Вт, что и в режиме загрузки. Плюс-минус десять ватт для нынешних блоков питания – ерунда. Но зачем же в таком случае плате на базе NVIDIA GeForce 6800 Ultra понадобились два разъема для подключения дополнительного питания? Посмотрим на результаты тестирования более подробно:

Интересно: в отличие плат, основанных на серии чипов ATI RADEON X800, NVIDIA GeForce 6800 Ultra практически не нагружает по питанию разъем AGP. В режиме загрузки суммарное потребление по линиям 3.3, 5 и 12 В, идущим через разъем AGP, составляет немногим меньше 5 Вт. Зато по линии 12В, идущей через разъемы дополнительного питания, в режиме загрузки плата потребляет 48.91 Вт – бОльшую часть всей мощности, потребляемой платой. При этом ток в линии 12В составляет 4.22 А – это достаточно много даже для разъема Molex 8981-04.

Итак, два разъема для подключения дополнительного питания на NVIDIA GeForce 6800 Ultra установлены, похоже, как раз для того, чтобы повысить надежность работы всей системы, снизив вызываемые видеокартой помехи и просадки напряжения, которые могут неблагоприятно сказаться на других устройствах, подключенных к тем же шлейфам питания, и повысить надежность работы видеокарты, уменьшив вероятность разогрева, подгораний и прочих неприятных результатов плохого контакта в разъемах.

С историей о 480-ваттных блоках питания складывается такая же ситуация: результаты тестирования показали, что в режиме загрузки плата потребляет лишь немногим больше, чем ATI RADEON X800 XT PE, и рекомендация по поводу 480-ваттных блоков питания – не более чем перестраховка. Возможно и то, что первые ревизии плат действительно имели проблемы с потреблением, а здесь же – уже серийный экземпляр. Как бы то ни было, линию +12В видеокарта загружает весьма серьезно, и поэтому для сборки мощной системы с быстрым процессором – а их стабилизаторы неуклонно переходят на питание от линии 12В - потребуется качественный блок питания с хорошим током по цепи +12В.

NVIDIA GeForce 6800 GT

NVIDIA GeForce 6800 GT – менее скоростные и менее дорогие модели, основанные, тем не менее, на "полноценных" графических процессорах с шестнадцатью пиксельными конвейерами и укомплектованные памятью GDDR3. В сегодняшнем тестировании GeForce 6800 GT представляет Leadtek и модель WinFast A400 GT TDH:

Эта видеокарта выполнена по тому же дизайну, что и NVIDIA GeForce 6800 Ultra, но, в отличие от более быстрой модели, имеет всего один разъем для подключения дополнительного питания. Основа платы – графический процессор NVIDIA GeForce 6800 GT и 256 МБ видеопамяти GDDR3. Номинальные тактовые частоты составляют 350/1000 МГц. Разгонный потенциал платы. что неудивительно, оказался выше, чем у более скоростной модели. Частоты графического процессора и видеопамяти при разгоне составили 420/1150 МГц – выше, чем номинальные частоты GeForce 6800 Ultra.

Результаты измерения энергопотребления:

GeForce 6800 GT потребляет намного меньше, чем GeForce 6800 Ultra: 55.39 Вт в режиме загрузки и 23.41 Вт в простое. Уменьшение энергопотребления складывается из двух факторов: во-первых, GeForce 6800 GT имеет более низкие тактовые частоты графического процессора и видеопамяти, а во-вторых, напряжение питания графического процессора также понижено: согласно замерам на плате от Leadtek, оно составляет около 1.35 В вместо 1.45 В у GeForce 6800 Ultra. Понижение напряжения питания особенно заметно по величине энергопотребления при разгоне: несмотря на то, что частоты платы превзошли номинальные частоты GeForce 6800 Ultra, энергопотребление GeForce 6800 GT осталось на более низком уровне.

Характер энергопотребления GeForce 6800 GT остался таким же, как у GeForce 6800 Ultra: плата практически не нагружает разъем AGP, забирая львиную долю мощности по цепи +12В:

В сравнении с конкурентом, ATI RADEON X800 Pro, GeForce 6800 GT имеет лишь немногим более высокое энергопотребление, причем, разница в величинах уже не столь высока, как разница между топовыми моделями. В режиме загрузки GeForce 6800 GT потребляет 55.39 Вт, в то время как RADEON X800 Pro – 48.2 Вт, а в режиме простоя эти платы потребляют, соответственно, 23.41 и 15.1 Вт.

NVIDIA GeForce 6800

NVIDIA GeForce 6800 – самая медленная модель, основанная на архитектуре NV40. GeForce 6800 использует те же кристаллы, что и более производительные модели, но имеет лишь 12 включенных пиксельных конвейеров из 16. Помимо этого, GeForce 6800 имеет пониженные тактовые частоты по сравнению с GeForce 6800 GT. NVIDIA GeForce 6800 представляет плата Galaxy Glacier GeForce 6800:

Дизайн видеокарт на основе GeForce 6800 отличается от дизайна GeForce 6800 GT/Ultra. Плата от Galaxy вместо стандартной системы охлаждения использует кулер от Arctic Cooling, очень похожий на систему охлаждения платы HIS Excalibur RADEON X800 Pro, принявшей участие в первой части статьи. Плата основана на чипе NVIDIA GeForce 6800 и, в отличие от более производительных моделей, использующих память GDDR3, имеет 256 МБ видеопамяти в обычных микросхемах DDR SDRAM.

Номинальные частоты видеокарты составляют 350/700 МГц – как видите, частота ядра на этой плате оказалась изначально поднята на 25 Мгц выше рекомендованной для GeForce 6800 частоты 325 МГц. При разгоне видеопамять показала хорошее увеличение частоты, а графический процессор, несмотря на использование очень качественной системы охлаждения – не очень: частоты платы при разгоне составили 375/900 МГц.

Результаты тестирования:

NVIDIA GeForce 6800 потребляет еще меньше, чем GeForce 6800 GT, и это неудивительно: у младшей модели понижены частоты и снижено напряжение питания графического процессора. На плате от Galaxy оно составляет примерно 1.22 В, в то время как у GeForce 6800 GT – около 1.35 В. В результате без разгона плата в режиме простоя потребляет 16.96 Вт, а под нагрузкой – всего 38.88 Вт.

Результаты в виде таблицы:

Стабилизаторы питания графического процессора и видеопамяти на NVIDIA GeForce 6800 построены иначе, нежели на старших моделях. Это видно как по изменению дизайна платы, так и по величинам токов потребления. GeForce 6800 нагружает AGP более активно, чем даже GeForce 6800 Ultra, потребляя в сумме по линиям 3.3, 5 и 12 В, идущим через разъем AGP, более 7 Вт в режиме загрузки. Впрочем, основная нагрузка ложится, по-прежнему, на линию 12В, идущую через разъем дополнительного питания – в режиме загрузки потребление по этой линии доходит до 23.62 Вт при токе 2.01 А.

NVIDIA GeForce FX 5950 Ultra

NVIDIA GeForce FX 5950 Ultra – топовый графический процессор предыдущего поколения от NVIDIA. Производится по технологии 0.13 мкм и содержит около 135 миллионов транзисторов. Видеокарту на основе NVIDIA GeForce FX 5950 Ultra представляет MSI с моделью FX5950 Ultra-VTD256:

Плата выполнена по референс-дизайну, но этого не видно за мощной системой охлаждения, состоящей из трех частей: кулера, накрывающего графический процессор и чипы памяти на лицевой стороне, и кулера с радиаторами, отводящими тепло, соответственно, от поверхности платы и от чипов памяти с другой стороны.

Номинальные частоты платы в 3D-режиме составляют 475/950 МГц, а в режиме простоя – 300/950 МГц. Соответственно, результаты тестирования в режиме простоя, несмотря на то, что в номинале указаны частоты 470/950 МГц, соответствуют работе на частотах 300/950 МГц – плата (точнее, драйвер) управляет частотами самостоятельно, и здесь нет резона вмешиваться.

Результаты измерения энергопотребления:

Вот это результаты! NVIDIA GeForce FX 5950 Ultra в режиме загрузки имеет самое высокое энергопотребление среди всех плат, протестированных в первой и второй частях статьи!

Что ж, по величине энергопотребления прекрасно видно, какой ценой в свое время далась NVIDIA установка настолько высокой тактовой частоты. Под нагрузкой плата имеет более высокое энергопотребление по сравнению даже с NVIDIA GeForce 6800 Ultra, платой, которая по скорости намного опережает GeForce FX 5950 Ultra. Вместе с тем интересно, что в режиме простоя плата потребляет заметно меньше, чем GeForce 6800 Ultra – в отличие от чипов нового поколения GeForce FX5950 Ultra в режиме простоя снижает тактовую частоту и величину напряжения питания графического процессора.

Стабилизатор питания графического ядра на платах с NVIDIA GeForce FX 5950 Ultra умеет изменять напряжение питания, следуя командам драйвера – в режиме простоя напряжение питания снижается, а при старте 3D-приложения оно увеличивается. В случае возникновения перегрева ядра напряжение питания графического процессора и его тактовая частота опускаются до значений, находящихся между значениями для 2D и 3D режимов – включается так называемый "Low power 3D" режим.

Согласно показаниям RivaTuner, драйвер Detonator версии 61.24 для GeForce FX 5950 Ultra устанавливает величину напряжения питания в режиме загрузки на уровне 1.5 В, а в режиме простоя – 1.2 В. Реальные величины на плате от MSI, как показали замеры, составили 1.217 и 1.577 В.

Итак, NVIDIA GeForce FX 5950 Ultra потребляет больше, чем GeForce 6800 Ultra. Почему же при появлении этих видеокарт не было столько шума вокруг блоков питания? Посмотрим на более подробные результаты тестирования:

В отличие от плат на чипах серии GeForce 6, NVIDIA GeForce FX 5950 Ultra нагружает цепи питания более равномерно и "щадит" линию +12 В, традиционно наиболее загруженную другими компонентами системы: в режиме "burn" токи по линиям 12В, 5В и по линии 3.3 В, идущей через разъем AGP, составляют, соответственно, 4.92, 2.29 и 5.59 А. Наибольший ток наблюдается в линии 3.3В, как правило, наименее загруженной.

Примечательно, что при этом величина тока в линии 3.3В приближается к максимально допустимой величине, диктуемой спецификациями AGP – 6 А, а при разгоне даже превышает этот предел, поднимаясь до 6.05 А. Впрочем, это, похоже, не повод для беспокойства: о возникновении каких-либо связанных с этим проблем ничего не слышно до сих пор.

NVIDIA GeForce FX 5900 Ultra

NVIDIA GeForce FX 5900 Ultra – предшественник GeForce FX 5950 Ultra в секторе самых производительных видеокарт – речь идет, разумеется, не о настоящем моменте, а о тех временах, когда именно эти платы были самыми скоростными представителями видеокарт на чипах от NVIDIA. Архитектурно GeForce FX 5900 Ultra от предыдущего графического процессора не отличается. Более того, GeForce FX 5950 Ultra, по сути, являлся ничем иным, как "официально разогнанной" модификацией GeForce FX 5900 Ultra.

Видеокарту на основе NVIDIA GeForce FX 5900 Ultra представляет референс-плата от NVIDIA:

Видеокарта основана на графическом процессоре NVIDIA GeForce FX 5900 Ultra и оснащена 256 МБ видеопамяти в чипах DDR SDRAM. Номинальные тактовые частоты платы в 3D-режиме составляют 450/850 МГц. Разгонный потенциал этого экземпляра не впечатлил. Совсем. 455/880 МГц при разгоне – это несерьезно.

Результаты измерения энергопотребления:

GeForce FX 5900 Ultra потребляет меньше, чем GeForce FX 5950 Ultra. Это понятно: во-первых, GeForce FX 5900 Ultra работает на более низких частотах, а во-вторых, графический процессор по сравнению с GeForce FX 5950 Ultra имеет более низкое напряжение питания в 3D-режиме - для режимов 2D/3D драйвер устанавливает напряжения 1.2/1.4 В. При этом реальные выходные напряжения стабилизатора питания графического процессора на плате составляют 1.235/1.449 В.

По характеру потребления GeForce FX 5900 Ultra отличается от GeForce FX 5950 Ultra:

Как и видеокарты на чипах серии GeForce 6, GeForce FX 5900 Ultra бОльшую часть энергии потребляет по линии +12В, идущей через разъем дополнительного питания.

NVIDIA GeForce FX 5700 Ultra

NVIDIA GeForce FX 5700 Ultra – самый быстрый из чипов, изначально разработанных для применения на видеокартах среднего класса. Сейчас, с появлением графических процессоров серии GeForce 6, в средний класс начинают перемещаться платы на чипах GeForce FX 5900/5950, смещая GeForce FX 5700 Ultra еще ниже, а с появлением GeForce 6600, новых графических процессоров среднего класса, дни GeForce FX 5700 Ultra будут сочтены.

Видеокарту на основе GeForce FX 5700 Ultra представляет модель Tornado GeForce FX 5700 Ultra от Inno3D:

Видеокарта выполнена по референс-дизайну и отличается от эталонных моделей только формой и расцветкой пластинки, накрывающей кулер. Плата основана на графическом процессоре NVIDIA GeForce FX 5700 Ultra и оснащена 128 МБ видеопамяти в чипах DDR-II. Номинальные частоты графического процессора и видеопамяти в 3D-режиме составляют 475/900 МГц. При разгоне частоты видеокарты составили 530/1000 МГц – средний результат для GeForce FX 5700 Ultra.

Результаты измерения энергопотребления:

Не стоит удивляться столь высоким величинам энергопотребления у платы среднего класса. Львиная доля потребления здесь приходится не на графический процессор, а на видеопамять – на плате используются чипы DDR-II, известные своей прожорливостью. Высокое энергопотребление и тепловыделение – одна из причин, из-за которых память DDR-II не нашла широкого применения на видеокартах, и ее очень быстро сменили гораздо более экономичные чипы GDDR3. К слову, использующая память GDDR3 плата на основе NVIDIA GeForce 6800, чью производительность даже как-то неудобно сравнивать со скоростью GeForce FX 5700 Ultra, имеет меньшее энергопотребление и тепловыделение, как в режиме простоя, так и в загрузке.

Более подробные результаты:

Никаких сюрпризов. Основная часть потребления приходится на линию +12В, идущую через разъем дополнительного питания, ток в этой линии в режиме "burn" составляет 2.11 А.

NVIDIA GeForce FX 5700

NVIDIA GeForce FX 5700 – менее дорогой, но и менее производительный, чем FX 5700 Ultra, представитель "бывшего среднего класса" видеокарт. На видеокарты, основанные на GeForce FX 5700, устанавливаются обычные чипы памяти DDR SDRAM, которые прекрасно обходятся без принудительного охлаждения. В силу всех этих качеств, видеокарты на основе GeForce FX 5700 стали намного более популярны по сравнению с их "Ultra"-аналогами.

Плату на основе GeForce FX 5700 представляет модель WinFast A360 TDH MyVIVO от Leadtek:

Видеокарта не имеет разъема для подключения дополнительного питания, а система охлаждения отводит тепло только от графического процессора. Номинальные тактовые частоты платы – они одинаковы в 2D- и 3D-режиме – составляют 425/550 МГц. При разгоне плата показала неплохой рост частот: 470/660 МГц.

Результаты измерения энергопотребления:

Два фактора: понижение тактовых частот и отказ от применения DDR-II, в совокупности дают отличный результат – видеокарта потребляет почти вдвое меньше по сравнению с GeForce FX 5700 Ultra. Что примечательно, в случае NVIDIA GeForce FX 5700 даже не пришлось применять разделение частоты и напряжения питания графического процессора на режимы 2D и 3D – частота ядра составляет 425 МГц, а напряжение питания, как показали замеры – около 1.43 В.

Более подробные результаты измерений:

Основная нагрузка ложится на линию питания 3.3 В, ток потребления в режиме "burn" составляет 3.96 A, а потребляемая по линии 3.3 В мощность – 12.36 Вт. По нынешним меркам – более чем скромно.

Заключение – NVIDIA: сводные результаты измерений

Итак, пришла пора подвести итоги. Для начала – общая диаграмма с результатами измерения энергопотребления видеокарт на чипах от NVIDIA:

На этой диаграмме прекрасно видно, что с выходом графических процессоров нового поколения от NVIDIA энергопотребление топовых видеокарт не только не увеличилось, но даже уменьшилось. Отличный результат!

Впрочем, не всё так хорошо: новые видеокарты на чипах от NVIDIA имеют несбалансированный характер потребления. Самые мощные платы достаточно серьезно нагружают линию +12В, и именно поэтому, а не из-за величины энергопотребления, перед приобретением таких плат стоит критически оценить возможности того БП, что установлен в системе, или отнестись ответственнее к подбору нового блока питания.

Заключение – ATI: сводные результаты измерений

В первой части статьи я не привел сводную диаграмму результатов энергопотребления видеокарт на чипах от ATI. Исправляюсь:

Новые графические процессоры от ATI серии X800 имеют лишь ненамного более высокое энергопотребление по сравнению с графическими процессорами предыдущего поколения. Новые видеокарты на чипах от ATI имеют более "сбалансированный" характер энергопотребления, поэтому при покупке новой видеокарты особых проблем при наличии не слишком мощного, но качественного блока питания быть не должно.

Энергопотребление: NVIDIA против ATI

Наконец, сводная диаграмма результатов измерения энергопотребления в стиле "NVIDIA против ATI". Для удобства восприятия я привожу результаты только без разгона:

Видеокарты на чипах от ATI в целом имеют меньшее энергопотребление в сравнении с конкурирующими платами, основанными на графических процессорах от NVIDIA. Однако, разница в энергопотреблении, по-моему, не настолько высока, чтобы при выборе платы это стало более серьезным аргументом, чем ее цена и скорость. Единственная проблема, касающаяся энергопотребления видеокарт на новых чипах от NVIDIA – большая нагрузка на линию +12В. В связи с этим при покупке подобных плат стоит более критично оценить возможности блока питания.

С другой стороны, видеокарты класса NVIDIA GeForce 6800/GT/Ultra и RADEON X800 XT/Pro, учитывая их стоимость, ставятся, как правило, в мощные игровые системы, а там эти видеокарты являются не единственными мощными потребителями – топовые современные процессоры даже без разгона имеют как минимум не меньшее, а зачастую намного более высокое энергопотребление. Поэтому вполне вероятно, что при модернизации системы, замены блока питания в первую очередь потребует отнюдь не только что приобретенная видеокарта.

Что касается разгона, то, судя по результатам тестов, как у видеокарт, основанных на чипах от ATI, так и у плат на графических процессорах от NVIDIA разгон увеличивает энергопотребление весьма незначительно – рост частот оказывается выше, чем связанное с ним увеличение энергопотребления. Таким образом, если касаться только такой характеристики платы, как энергопотребление, то в этом плане разгон оказывается сравнительно безопасным занятием – если блок питания уверенно работает в системе с неразогнанной платой, то можно с определенной долей уверенности сказать, что и при разгоне видеокарты проблем не возникнет.

В ближайшее время появятся платы на новых графических процессорах, разработанных для современных видеокарт среднего уровня – сейчас платами такого класса можно назвать весьма "прожорливые" графические карты на топовых чипах предыдущего поколения. Появление NVIDIA NV43, или GeForce 6600/6600GT, и ATI RV410, чье маркетинговое название еще неизвестно, должно изменить ситуацию с энергопотреблением плат среднего уровня – новые чипы изготавливаются по новым технологическим нормам и имеют все шансы оказаться экономными и "холодными".

Ждём Ваших комментариев в специально созданной ветке конференции.

overclockers.ru

Я слышал, что видеокарты на базе NVIDIA потребляют большую мощность и имеющегося блока питания может не хватить. Надо ли покупать очень мощный блок под новую видеокарту?

Видеокарты на базе NVIDIA потребляют не больше и не меньше, чем карты на наборах логики других разработчиков при примерно равных характеристиках графического процессора, объеме памяти и рабочих частотах. Выбор блока питания зависит от платформы, в частности от типа шины видеоадаптера.

По стандарту AGP потребляемый ток видеокарты может достигать до 6 А по напряжению +3.3 В, до 2 А по +5 В и до 1 А по напряжению +12 В. Итого до 42 Ватт. Большинство видеокарт на базе GeForce FX и более новых графических процессоров дополнительно получают до 6 A по напряжению +12 В через коннектор питания 5.25" (как для жесткого диска). Для того, чтобы оценить способность блока питания «потянуть» видеокарту обратитесь к его маркировке. Маркировка обычно содержит таблицу вида:

Max ____A ____A ____A ____A ____A ____A _____W

Сравните цифры по токам и мощностям с рекомендуемыми для блока той либо иной мощности по стандарту ATX:

  • мощностью 230W: +3.3V - 14A, +5V - 18A, +12V - 14A, общая мощность по 3.3V + 5V - 110W
  • мощностью 250W: +3.3V - 20A, +5V - 21A, +12V - 17A, общая мощность по 3.3V + 5V - 140W
  • мощностью 300W: +3.3V - 27A, +5V - 26A, +12V - 18A, общая мощность по 3.3V + 5V - 195W

По стандарту PCI Express 1.х потребляемый ток видеосистемы может достигать до 3 А по напряжению +3.3 В и до 5.5 А по +12 В, т.е. до 76 Ватт. Видеокарты среднего и высокого уровня производительности дополнительно получают до 10 А по напряжению +12 В через один специальный 6-контактный разъем PCIE Power, а видеокарты высшего уровня — до 15 А через два 6-контактных разъема или один 6- и один 8-контактный разъемы. Для систем с шиной PCI Express требуется блок питания, соответствующий стандарту ATX12V. Маркировка таких блоков выглядит обычно так:

Max ____A ____A ____A ____A ____A ____A _____W _____W

Сравните цифры по токам и мощностям с рекомендуемыми для блока той либо иной мощности по стандарту ATX12V:

  • мощностью 300W: +3.3V - 18A, +5V - 12A, +12V1 - 8А, +12V2 - 13 A, максимальная мощность по 3.3V + 5V - 120W, максимальная мощность по +12V - 265W
  • мощностью 350W: +3.3V - 20A, +5V - 12A, +12V1 - 10А, +12V2 - 13 A, максимальная мощность по 3.3V + 5V - 130W, максимальная мощность по +12V - 300W
  • мощностью 400W: +3.3V - 20A, +5V - 14A, +12V1 - 14А, +12V2 - 13 A, максимальная мощность по 3.3V + 5V - 130W, максимальная мощность по +12V - 350W
  • мощностью 450W: +3.3V - 22A, +5V - 15A, +12V1 - 14А, +12V2 - 16 A, максимальная мощность по 3.3V + 5V - 130W, максимальная мощность по +12V - 400W
  • для блоков большей мощности линии +12V1 и +12V2 должны поддерживать токи не менее 16 А.

Если блок питания имеет значительно меньшие цифры в сравнении с рекомендациями, приобретения такого блока следует избегать, а если такой блок уже установлен в компьютере, его лучше заменить до установки новой видеокарты.

Отдельно отметим подбор блока питания для системы SLI. В этом случае требования к качеству и характеристикам блока практически удваиваются. Даже для объединения карт нижнего ценового диапазона блок питания должен иметь мощность не менее 400 Ватт. Предпочтительно выбирать блок, имеющий более двух линий +12V (в таблице будут столбцы +12V3 и т.д.), причем каждая линия должна обеспечивать не менее 15 Ампер. Обратите внимание на количество коннекторов усиления питания для видеокарт — для объединения в пару мощных видеокарт у блока питания должно быть минимум четыре 6- или 8-контактных разъемов для видеокарт. Не рекомендуется обходить проблему подключением второго блока питания — все равно необходимые напряжения в слоте шины обеспечивать будет только один блок, а разные величины напряжений от разных блоков (даже от одного номинала/модели, вследствие различия степени нагрузки) могут привести к нестабильной работе системы, повышенному нагреву силовой части и даже к выходу видеокарт из строя.

nvworld.ru

Все видеокарты nVidia

Температура и потребляемая мощность графических процессоров nVidia

В таблице ниже указаны температуры и спецификации питания для различных графических процессоров от nVidia. Для моделей, которые не указаны в таблице, nVidia не публикует их максимальную температуру, максимум мощности и минимальные требования к блоку питания.

Важно отметить, что все значения указаны в “худшем варианте”. При штатном функционировании графического процессора температура будет ниже своего максимума, и потреблять мощность ниже той, которая публикуется в этой таблице. То же самое и для минимальной потребляемой мощности, где nVidia публикует “безопасное” значение, а не номинальную мощность.

Графический процессор Макс. Темп. Макс. Мощность Мин. БП
GeForce 9400 GT 105? C 50 W 300 W
GeForce 9500 GT 105? C 50 W 350 W
GeForce 9600 GSO 105? C 105 W 400 W
GeForce 9600 GSO (512 Мб) 105? C 90 W 400 W
GeForce 9600 GT (600 МГц) 105? C 59 W 300 W
GeForce 9600 GT (650 МГц) 105? C 96 W 400 W
GeForce 9800 GT 105? C 105 W 400 W
GeForce 9800 GTX 105? C 140 W 450 W
GeForce 9800 GTX+ 105? C 141 W 450 W
GeForce 9800 GX2 105? C 197 W 580 W
GeForce G 100 105? C 35 W 300 W
GeForce GT 120 105? C 50 W 350 W
GeForce GT 130 105? C 75 W 350 W
GeForce GTS 150 105? C 141 W 450 W
GeForce 205 105? C 30.5 W 300 W
GeForce 210 105? C 30.5 W 300 W
GeForce GT 220 105? C 58 W 350 W
GeForce GT 240 105? C 69 W 300 W
GeForce GTS 240 105? C 120 W 450 W
GeForce GTS 250 105? C 150 W 450 W
GeForce GTX 260 105? C 182 W 500 W
GeForce GTX 275 105? C 219 W 550 W
GeForce GTX 280 105? C 236 W 550 W
GeForce GTX 285 105? C 204 W 550 W
GeForce GTX 295 105? C 289 W 680 W
GeForce 310 105? C 30.5 W 300 W
GeForce 315 105? C 33 W NA
GeForce GT 320 105? C 43 W 300 W
GeForce GT 330 105? C 75 W 300 W
GeForce GT 340 105? C 69 W 300 W
GeForce GT 420 105? C 50 W NA
GeForce GT 430 98? C 49 W 300 W
GeForce GT 440 100? C 56 W NA
GeForce GTS 450 100? C 106 W 400 W
GeForce GTX 460 104? C 160 W 450 W
GeForce GTX 465 105? C 200 W 550 W
GeForce GTX 470 105? C 215 W 550 W
GeForce GTX 480 105? C 250 W 600 W
GeForce GTX 560 Ti 100? C 170 W 500 W
GeForce GTX 570 97? C 219 W 550 W
GeForce GTX 580 97? C 244 W 600 W

Ушел фильмы онлайн смотреть. Скоро появится обзор GeForce GTX 580.

hardwareguide.ru

Энергопотребление современных видеокарт. Часть 1 – платы на чипах от ATI. Энергопотребление видеокарт таблица

Максимальная температура и потребляемая мощность видеокарт Nvidia

Если вы занимаетесь майнингом то важно знать максимально допустимую температуру для своей видеокарты. В таблице ниже приведены значения критических температур для карт производства NVIDIA.

Внимание! Критическая температура это абсолютный максимум, выше которого ядро видеоадаптера начнет пропускать такты, а в случаи если температура не уменьшится будет полностью отключено. Допускать работу видеокарты на температурах близких к этим значениям крайне не рекомендуется. При длительной эксплуатации карт старайтесь чтобы их температура не превышала 80º градусов.

Модель видеокарты Критическая температура, °С Энергопотребление, Вт
NVIDIA TITAN V 91 250
NVIDIA TITAN Xp 94 250
GeForce GTX 1080 Ti 91 250
GeForce GTX 1080 94 180
GeForce GTX 1070 Ti 94 180
GeForce GTX 1070 94 150
GeForce GTX 1060 94 120
GeForce GTX 1050 Ti 97 75
GeForce GTX 1050 97 75
GeForce GT 1030 97 30
NVIDIA TITAN X (Pascal) 94 250
GeForce GTX TITAN X 91 250
GeForce GTX TITAN Z 95 375
GeForce GTX TITAN Black 95 250
GeForce GTX TITAN 95 250
GeForce GTX 980 Ti 91 250
GeForce GTX 980 98 165
GeForce GTX 970 98 145
GeForce GTX 960 98 120
GeForce GTX 950 95 90
GeForce GTX 780 Ti 95 250
GeForce GTX 780 95 250
GeForce GTX 770 98 230
GeForce GTX 760 97 170
GeForce GTX 750 Ti 95 60
GeForce GTX 750 95 55
GeForce GTX 690 98 300
GeForce GTX 680 98 195
GeForce GTX 670 97 170
GeForce GTX 660 Ti 97 150
GeForce GTX 660 97 140
GeForce GTX 650 Ti Boost 97 134
GeForce GTX 650 98 64
GeForce GTX 645 97 130
GeForce GT 640 102 50
GeForce GT 630 98 65
GeForce GT 620 98 49
GeForce GTX 590 97 365
GeForce GTX 580 97 244
GeForce GTX 570 97 219
GeForce GTX 560 Ti 99 170
GeForce GTX 560 99 150
GeForce GTX 550 Ti 100 116
GeForce GT 520 102 29
GeForce GTX 480 105 250
GeForce GTX 470 105 220
GeForce GTX 465 105 200
GeForce GTX 460 104 160
GeForce GTS 450 100 106

По данным сайта gtx-force.ru

20.12.2017

Читайте также:

Please enable JavaScript to view the comments powered by Disqus.

crypto-bay.ru

Энергопотребление современных видеокарт. Часть 1 – платы на чипах от ATI - Лаборатория

Введение

Современные видеокарты по всем параметрам намного превосходят платы, вышедшие еще несколько лет назад – по скорости, по функциональности, по сложности и, увы, по энергопотреблению и тепловыделению. Сегодня слова «быстрая», «скоростная» или «высокопроизводительная» применительно к видеокартам для большинства означают «прожорливая», «горячая» или «мощная система охлаждения». Поэтому многие энтузиасты и геймеры, рассчитывающие на приобретение топовой видеокарты сейчас или в ближайшем будущем, заранее смиряются с необходимостью замены блока питания на более мощный или готовятся к серьезной проверке характеристик своего старого БП. Всем известная история с видеокартами на базе NVIDIA GeForce 6800 Ultra, для которых NVIDIA рекомендует блоки питания мощностью 480Вт или как минимум 350 «качественных» Ватт, лишь добавляет пессимизма при расчетах будущих расходов.

Итак, энергопотребление и тепловыделение современных видеокарт – очень интересный вопрос, живо интересующий каждого оверклокера и любого геймера, планирующего провести модернизацию своей машины в ближайшем будущем. Для того чтобы наш герой не терзался сомнениями, в этом обзоре я опишу методику измерения энергопотребления – а заодно и тепловыделения – современных видеокарт и приведу результаты, полученные на видеокартах при работе в номинальном режиме и при разгоне. Чтобы усилить интригу, в первой части я приведу только результаты видеокарт, основанных на чипах от ATI – платы на чипах от NVIDIA будут рассмотрены позже. А чтобы смягчить гнев оверклокеров, потерявших надежду увидеть глобальное сравнение массы видеокарт, в части, посвященной ATI RADEON X800 Pro, я подробно рассмотрю энергопотребление платы не только при разгоне, но и при повышении напряжения питания ядра и экстремальном разгоне. Такого ещё никто не делал. Будет интересно, обещаю :).

Итак, поехали!

Небольшое лирическое отступление о тепловыделении

Связывая энергопотребление и тепловыделение видеокарты, я руководствуюсь законом сохранения энергии – очевидно, что видеокарта не является источником энергии для других компонентов персонального компьютера, поэтому вся потребляемая ею энергия выделяется на ней же в виде тепла. Соответственно, все те цифры, что будут приведены для энергопотребления видеокарт, можно смело считать величиной тепловыделения этих плат.

Питание от разъема AGP и дополнительное питание

До появления видеокарт, основанных на чипах серии ATI RADEON 9700/9500, а задолго до этого – 3dfx Voodoo 5500/6000, все игровые графические адаптеры получали питание через разъем AGP. Солидная часть контактов разъема AGP предназначена именно для подачи питания на видеокарту – это 3.3В, 5В и 12В. Максимальные токи потребления по линиям 3.3В, 5В и 12В, диктуемые спецификациями последней реинкарнации AGP, AGP 3.0, составляют 6А для линии 3.3В, 2А для линии 5В и 1А для 12В. Зная напряжения и максимальные токи, максимальное потребление видеокарты через разъем AGP подсчитать нетрудно – оно составляет примерно 41.8 Ватт.

Для современных видеокарт среднего класса этого, очевидно, достаточно – они не имеют разъема для подключения дополнительного питания. Более скоростные видеокарты этим уже не могут удовлетвориться – максимальное энергопотребление некоторых плат может и не превышать 41.8 Ватт, но то, что оно может находиться недалеко от этого уровня, диктует необходимость подачи дополнительного питания помимо AGP – длительная эксплуатация в предельных режимах не шла на пользу еще ни одному из компьютерных компонентов.

Сейчас наличие разъема для подключения дополнительного питания на топовых графических платах уже ни у кого не вызывает удивления. Эти разъемы, аналогичные разъемам питания жестких дисков или оптических приводов (на RADEON 9700/9500 – аналогичные разъему питания флоппи-дисководов) подают на плату питание по линиям 5В и 12В. Некоторые видеокарты имеют даже не один, а два таких разъема. Согласно документу от Molex, максимальные токи через такие разъемы могут сост

powerminer.ru

Работа видеокарт NVIDIA с несколькими мониторами в высоком разрешении "пожирает" энергию - Новости

Некоторое время назад в лаборатории интернет-ресурса Tech Report обнаружили непонятное поведение видеокарт компании NVIDIA при подключении двух и более мониторов с высокой кадровой частотой обновления. Оказалось, что если к портам DisplayPorts адаптеров NVIDIA подключить несколько дисплеев с частотой обновления кадров свыше 60 Гц возникает резкий всплеск потребления энергии видеокартой. Адаптер поднимает напряжение своего питания и увеличивает частоту графического процессора даже в ждущем режиме (без 3D-нагрузки). Данной "болезни", как сообщают авторы, оказались подвержены также новые видеокарты GeForce GTX 1080 на архитектуре Pascal.

В составе тестовой системы использовалась видеокарта Gigabyte GeForce GTX 1080 Xtreme Gaming. Параметры адаптера отслеживались с помощью утилиты Gigabyte Xtreme Gaming Engine. К двум портам DisplayPorts адаптера подключались мониторы Eizo Foris FS2735 с поддержкой 144 Гц FreeSync и Asus ROG Swift PG279Q с поддержкой 165 Гц G-Sync. При подключении сначала одного монитора Asus ROG Swift PG279Q в состоянии простоя системы частота видеокарты составляла 291 МГц вне зависимости от установленной на мониторе кадровой частоты 60 Гц или 165 Гц. Измерение потребление системы с помощью Watts Up показывало в среднем 65-75 Вт.

Подключение ко второму порту монитора Eizo с частотой 60 Гц сразу же вызвало подъём частоты адаптера до 1304 МГц и потребления до 107 Вт. Пошёл нагрев на ровном месте. Увеличение кадровой частоты монитора Eizo до 144 Гц никак не повлияло на частоту и потребление. Зато снижение кадровой частоты монитора Asus ROG Swift PG279Q до 60 Гц с сохранением 144 Гц для монитора Eizo вернуло частоту адаптера до "базового значения" 291 МГц.

Автор находки "бага по питанию" очень надеется, что NVIDIA всё-таки разберётся с проблемой. Очень неудобно постоянно отслеживать в каком состоянии находится видеокарта во время работы с двумя и более мониторами. Ничего не делаешь, а электрический счётчик накручивает копеечку. Обидно.

Telegram-канал @overclockers_news - это удобный способ следить за новыми материалами на сайте. С картинками, расширенными описаниями и без рекламы.

overclockers.ru

Рейтинг видеокарт Nvidia по цене/производительности: ТОП5 моделей

Компания Nvidia регулярно обновляет линейку видеокарт, состоянием на начало 2017 года актуальная тысячная серия. В ней представлены решения от бюджетной игровой карточки GX 1050 на 2 Гб — до флагмана GTX 1080 Ti с 11 Гб. Казалось бы, в выборе нет ничего сложного: чем выше модельный номер — тем лучше. Но ситуация усложняется тем, что сами Nvidia не имеют сборочных фабрик, карты на базе их ГП делают другие компании. Они вдоволь экспериментируют с параметрами, чтобы успешно конкурировать, поэтому под одним именем могут скрываться разные по производительности и качеству графические устройства. Сравнение видеокарт Nvidia позволяет определить разницу в их производительности, но не дает возможности определить лучшую конкретную модель. Сделать это поможет наша статья.

Сравнения видеокарт Nvidia GeForce

Прежде, чем выбрать лучши модели видеокарт Nvidia, стоит ознакомиться с их официальными характеристиками. Ключевые параметры — это количество и частота потоковых шейдерных ядер. Теоретическая вычислительная мощность в ГФЛОПС определяется именно ими. Однако стоит помнить, что разница ГФЛОПС в 2 раза — еще не значит, что в играх более мощная карта выдаст вдвое больше FPS. Реальная разница выходит несколько меньше.

Читайте также: 7 лучших видеокарт 2016 года до 8000 грн

Таблица сравнения видеокарт Nvidia GeForce

Видеокарта GeForce GTX 1050 GeForce GTX 1050 Ti GeForce GTX 1060 3GB GeForce GTX 1060 GeForce GTX 1070 GeForce GTX 1080 GeForce GTX 1080 Ti
Графический процессор GP107 GP106 GP104 GP102
Площадь кристалла, мм2 135 200 314 471
Количество транзисторов, млн 3300 4400 7200 12000
Количество потоковых шейдерных ядер 640 768 1152 1280 1920 2560 3584
Количество блоков обработки текстур 40 48 72 80 120 160 224
Количество блоков рендеринга 32 48 64 88
Ширина шины памяти 128 192 256 352
Стандарт видеопамяти GDDR5 GDDR5X
Объём памяти, Гб 2 4 3 6 8 11
Скорость работы памяти, Гб/с 112,0 192,2 256,3 320,3 484,0
Потребление энергии, Вт 75 120 150 180 250
Частота ГП (стандартная), МГЦ 1354 1290 1506 1607 1480
Частота в режиме Турбо, МГц 1455 1392 1709 1683 1734 1582
Физическая (эффективная) частота памяти, МГц 1750 (7000) 2002 (8008) 1251 (10008) 1375 (11000)
Производительность (32-битные числа), ГФЛОПС 1733 1981 3469 3855 5783 8227 10608

Как видно из таблицы, сейчас в арсенале Nvidia имеется 4 графических процессора, на основе которых выпускается 7 моделей видеокарт. Также есть и восьмая, Titan X Pascal на GP102, но она не входит в серию GeForce, стоит дорого, а найти ее сложно. Топовая GTX 1080 Ti — это слегка урезанная версия Титана, выпущенная месяцем ранее. Однако и она не очень востребована на рынке, как любой Hi-End (ибо дорого), потому встречается в продаже редко.

Из 7 актуальных моделей видеокарт Nvidia GeForce 3 производятся на полных версиях чипов, и 3 — на их упрощенных модификациях. В GTX 1050, помимо отключенной части процессорных ядер, объем памяти ограничен 2 Гб. Аналогично обстоит дело и с GTX 1060. GTX 1070 и 1080 тоже базируются на одном чипе с разным числом активных ядер, памяти у них одинаково (по 8 Гб), но скорость ее работы отличается (в 1080 используется более скоростная GDDR5X).

Читайте также: На новых компьютерах с AMD можно будет играть в тяжелые игры без видеокарты

Как проводился отбор лучших видеокарт Nvidia

Благодаря манипуляциям с конфигурацией графических процессоров Nvidia смогли заполнить весь сегмент игровых видеокарт на рынке. Между соседними моделями нет пропасти, каждая из них лучше предшественника, но не в разы. Разумеется, 1060 лучше, чем 1050, но обе карты представлены в продаже во многих версиях. Чтобы выбрать оптимальную модель, использовалось несколько критериев.

  • Лучшая производительность в своей ценовой категории. Сравнение производительности видеокарт Nvidia с конкурентами AMD показывает, что продукты этих фирм выступают в немного разных нишах. Отличаются и цены, и производительность: так, младшая Radeon RX 460 — медленнее GTX 1050, но и стоит меньше. А вот с GTX 1060 3 Гб — все наоборот: после обновления драйверов radeon она идет на равных с более дешевой RX 470 с 4 Гб а если и уступает ей (зависит от игры) — то немного, непропорционально разнице в цене. Карты, конкуренты которых смотрятся выгоднее, отсеивались.
  • Более интересная цена, в сравнении с одноклассниками. Многие компании делают почти одинаковые карты, отличающиеся только дизайном платы и охлаждения. В таких ситуациях предпочтение отдавалось моделям, которые при прочих равных (частоты, возможности системы охлаждения) стоят дешевле.
  • Качественное охлаждение. Если сравнение видеокарт Нвидия приводило к выбору между двумя равноценными моделями, то предпочтение отдано той, у которой система охлаждения сделана лучше и работает эффективнее. При наличии аналогов с 1 и 2 вентиляторами, или более и менее шумной карт, по почти одинаковой стоимости — в подборку попадала вторая модель.

Читайте также: Новости AMD. Дата выхода процессоров Ryzen, Naples и Raven Ridge, видеокарт Vega — подтверждена официально

Эта видеокарта Nvidia — лучшее решение бюджетного класса, из вообще всех представленных на рынке. Gigabyte GeForce GTX 1050 Windforce 2X OC идет на равных или немного превосходит Radeon RX 460. Стоимость видеокарты — всего на 200 грн дороже, чем просят за модель с одним вентилятором Palit или Inno3D. В производительности между ними разницы может и нет, а вот в охлаждении и уровне шума отличия присутствуют.

В Gigabyte GeForce GTX 1050 Windforce 2X OC используется отлично зарекомендовавшая себя система охлаждения WindForce с двумя вентиляторами. И не страшно, что это упрощенная модель кулера, без тепловых трубок: для 75 Вт (а в реальности еще меньше) и этого достаточно. При бездействии кулеры отключаются, чтобы не шуметь и не гонять пыль почем зря. Хороший кулер позволил увеличить частоты видеокарты до 1404 Мгц в обычном режиме и 1518 Мгц — в режиме турбо.

Читайте также: Сборка игрового ПК за 10000 грн: актуальная конфигурация на начало 2017

Zotac GeForce GTX 1050 Ti OC Edition — это один из вариантов реализации видеокарты на базе полноценного процессора Nvidia Pascal GP107, отличающийся низкой ценой. Карта по цене сравнима с одновентиляторными модификациями других компаний (от 4449 грн на момент написания материала), но при этом оборудована двухвентиляторным кулером, да еще и на тепловых трубках. Такое охлаждение обычно является прерогативой видеокарт подороже (как минимум 5000 грн на момент составления подборки). При этом она выполнена на короткой плате, что важно для тех, кто собирает компактный игровой ПК.

Система с двумя вентиляторами и двумя тепловыми трубками обеспечивает Zotac GeForce GTX 1050 Ti OC Edition стабильно низкие температуры. Даже если играть очень долго — прогреть ее сильнее, чем до 50-55 градусов, будет очень сложно. И это при том, что карта имеет заводской разгон, ее стандартная частота — 1392 МГц, а турбо — 1506 МГц (более, чем на 100 Мгц выше референсного образца «Founders Edition»). Недостаток у Zotac GeForce GTX 1050 Ti OC Edition один: у Zotac гарантия сокращена с 36  (как у Asus или Gigabyte) —  до 24 месяцев. Но это мелочи, ведь если брак не проявился в первые месяцы — то карта проработает очень долго. Нам кажется, что переплата около 500 грн за третий год гарантии — как-то многовато.

Читайте также: Обзор и тест Gigabyte GeForce GTX 1050 Ti Windforce OC (GV-N105TWF2OC-4GD)

Стоит сразу отметить, что версии GTX 1060 3 Gb в подборке не будет, причина тому — память. Опыт показывает, что такие карты покупают лет на 5, а новые игры (вроде Battlefield One)  уже сейчас не против заполнить все 4 Гб на 1050 Ti, оснащенной более медленным процессором. Место в подборке досталось Inno3D GeForce GTX 1060 HerculeZ Twin X2, которая стоит дороже версии с 3 Гб, но дешевле аналогов от более известных фирм, оснащенных столь же хорошим кулером.

Карта оборудована чипом Nvidia Pascal GP106 со всеми активными ядрами.Заявленные частоты равны стандартным, 1506-1709 Мгц, но на практике в режиме турбо карта автоматически разгоняется и до 1900 Мгц, если нет перегрева. А его нет: даже стресс-тест в обычном корпусе не дает нагреться больше 70 градусов. Если разгонять видеокарту вручую, то и до 2 ГГц частоту ядра можно увеличить без особых сложностей.Все же, качественное охлаждение на двух тепловых трубках исправно делает свою работу.

Читайте также: Сборка игрового компьютера 25000 гривен: к VR готов

Одна из лучших видеокарт Нвидия для мощного игрового ПК — MSI GeForce GTX 1070 Gaming X 8 Gb. Она оснащена качественным фирменным охлаждением, состоящим из 2 вентиляторов и радиатора с пятью тепловыми трубками. Оно намного эффективнее кулера в референсной версии Nvidia, сравнение видеокарт в тестах показало, что рабочие температуры MSI GeForce GTX 1070 Gaming X 8 Gb под полной нагрузкой держатся в пределах 70 градусов. Версия GTX 1070 Founders Edition заметно горячее, она при долгой игре прогревается до 80-85 градусов.

Особенно привлекательно смотрится кулер, если учесть, что частоты видеокарты увеличены примерно на 100 МГц, в сравнении с рекомендуемыми. Стандартное значение для ядра — 1608 МГц, турбо — 1797 МГц. Мощное охлаждение, в сочетание с двумя разъемами питания, обеспечивает и хороший разгонный потенциал. В режиме турбо карте легко дается психологическая отметка 2 ГГц, а память гонится до эффективной частоты 9 ГГц или даже чуть больше. В таком режиме скорость карты практически сравнивается с быстродействием базовой версии GTX 1080 (которая почти на 5 тысяч дороже).

Читайте также: Процессоры Intel Kaby Lake — презентация официально состоялась

Еще один представитель фирмы Гигабайт в рейтинге лучших видеокарт Nvidia — Gigabyte GeForce GTX 1080 WindForce 3X OC8 Gb. Это топовая карта, оборудованная массивной системой охлаждения WindForce 3X. Кулер состоит из двух алюминиевых радиаторов, соединенных тремя толстыми тепловыми трубками из меди. Обдуваются они тремя фирменными вентиляторами. Кожух охлаждения оснащен настраиваемой подсветкой, что придется по нраву обладателям корпусов с прозрачной стенкой.

Система охлаждения Gigabyte GeForce GTX 1080 WindForce 3X OC8 Gb весьма эффективная и способна удерживать температуры ГП в пределах 70 градусов. Это очень хорошие показатели для флагманской видеокарты. Еще пару лет назад подобные показатели достигались лишь с использованием кулеров, ревущих аки тот реактивный истребитель на взлете. В данном случае для удержания 70 градусов — достаточно и 2000-2300 об/мин, заметного завывания при этом нет. Можно вручную зафиксировать обороты на 1700 об/мин, и шум становится сравнительно низким.  Даже таких условиях карта все равно будет холоднее, чем референсный образец (греющийся до 85°C).

Учитывая, что Gigabyte GeForce GTX 1080 WindForce 3X OC8 Gb — это разогнанная видеокарта, ее системами охлаждения и питания можно восхититься. Базовая частота ядра — 1696 МГц, турбо — 1835 МГц. Это почти на 100 МГц больше референсных частот. При ручном разгоне — можно добиться уверенной работы на 2 ГГц в турбо-режиме.

Читайте также: Играем в 4К. Сборка мощного игрового компьютера за 55 тысяч гривен

Похожие статьи

blog.price.ua