Какой блок питания нужен для видеокарт geforce rtx 2060 и rtx 2060 super

Тестирование

Тестовый стенд:

  • Процессор i7 3770
  • Охлаждение — Corsair Hydro Series H105
  • Материнская плата — GIGABYTE GA-Z77X-UD3H
  • Память — DDR3 2133MHz Kingston HyperX Savage 16 Гб
  • Блок питания — Corsair RM750
  • Диск под систему — Seagate 600 SSD 480 Гб
  • Корпус — NZXT Phantom
  • Монитор — Asus PB298 2560 × 1080
  • ОС – Windows 8.1 64bit
  • Драйвер — NVIDIA GeForce 353.06

Вначале протестируем возможности системы охлаждения. Нагрузим видеокарту программой FurMark V1.10.2. показания зафиксирует программа GPU-Z. Тестирование проводилось в открытом корпусе, при этом корпусные вентиляторы на охлаждение видеокарты не влияли.

В покое температура составила 47 °С при оборотах вентилятора 1050. При этом его вообще не было слышно. Общий уровень шума составил 37 дБ. С ростом температуры обороты растут и возрастает шум от системы охлаждения.

До 80 °С обороты вентилятора были менее 2000, при этих показателях видеокарта очень тихая, уровень шума не более 45 дБ.

Под нагрузкой температура поднялась до 85 °С, обороты увеличились до 2618. Шум увеличился до 50 дБ. Выше этого значения температура не поднимается, система охлаждения пытается удержать ее в этих рамках за счет повышения оборотов вентилятора.

Далее протестируем возможности видеокарты в разгоне. Для этого мы воспользуемся утилитой EVGA PrecisionX 16.

Софтвольтмод хоть и доступен, но не использовался, все же охлаждение референсного решения оставляет желать лучшего. Увеличить частоты GPU удалось до 1250 МГц, Boost Clock при этом поднимал частоту в некоторых играх до 1452 МГц. Частота памяти была поднята до 1964 МГц. Для более эффективного охлаждения при разгоне, обороты вентилятора видеокарты были зафиксированы на значении 3000 об/мин. При таких агрессивных настройках это позволило удерживать температуру видеопроцессора ниже 80 °С.

Синтетические тесты

Данные тесты интересны тем, что позволяют сравнить между собой различные игровые сборки. Прогнав эти бенчмарки на своем игровом компьютере, вы можете сравнить цифры, и сделать вывод – есть ли необходимость в смене вашей видеокарты на что-то более производительное, или оставить все как есть.

Вначале пакеты 3DMark. Все настройки по умолчанию.

3DMark 11:

С увеличенными частотами этот тест не проходил: уровни не загружались, выдавая ошибку.

3DMark – Fire Strike:

С увеличением частоты видеоядра данный тест демонстрирует значительное увеличение значений: прирост составил 20%.

Теперь тесты Unigine:

Unigine Valley Benchmark 1.0

В этом тесте средний fps увеличился, а минимальный и максимальный остался без изменений.

Unigine Heaven Benchmark 4.0

Данный тест лучше реагирует на разгон видеокарты — прибавка порядка 25%.

Игровые тесты

Больше всего потенциальных покупателей волнует вопрос производительности видеокарты в играх. Ведь именно для этого и покупается данная видеокарта. В играх тестирование проводилось на мониторе с разрешением 2560 × 1080. Настройки качества выставлялись наибольшие возможные (их можно увидеть на скринах). Вертикальная синхронизация была отключена для демонстрации максимального fps. Результаты фиксировались программой Fraps. В некоторых играх для наглядности приведены ролики игрового процесса, записанные при помощи утилиты ShadowPlay — входящей в драйвер GeForce Experience.

Видеоролики, где мониторинг осуществляется программой MSI Afterburner, были записаны при помощи этой же программы, она наглядно демонстрирует не только fps, но и загрузку видеоядра, видеопамяти, и их частоты.

GTA 5

The Witcher 3 Wild Hunt

Far Cry 4

Watch Dogs

Battlefield 4

Assassin’s Creed Rogue

Call of Duty Advanced Warfare

WarThunder

Need for Speed Rivals

Как видим по тестам, видеокарта GeForce GTX 980 Ti справляется без проблем со всеми играми на самых высоких настройках. Особенно это заметно по минимальным кадрам в секунду. При этом демонстрируется отличная реалистичная картинка в новинках игровой индустрии. Производительности GTX 980 Ti вполне будет достаточно и для разрешения 4K и для мультимониторной конфигурации. Большой объем памяти рассчитан именно на это. В протестированных играх использовалось не так много видеопамяти, максимум 3700 — 4200 МБ.

Итоги

Спасибо товарищу AMD за то, что двигает прогресс в недорогих видеокартах даже без реальных продаж своих новых моделей! Потому что «щас придёт порядок наведёт» Radeon RX 5500 угрожал только младшей GeForce GTX 1650, а RX 5500 XT и вовсе пока остаётся мифической моделью, которая выйдет в светлом будущем, но этого оказалось достаточно, чтобы NVIDIA занервничала и немного улучшила свои недорогие видеокарты.

До сих пор самой «крутой» видеокартой NVIDIA без технологии RTX была GeForce GTX 1660 Ti. Теперь вышла изначально более дешёвая (а после первоначального ажиотажа цены станут ещё приятнее) GTX 1660 SUPER с таким же уровнем производительности. Или, если так понятнее, уровнем производительности GeForce GTX 1070, за которую на момент выхода просили 30 тысяч рублей. И даже 8 Гбайт памяти не помогают старой доброй «семидесятке» вырваться вперёд.

И уж тем более они не помогают ещё более устаревшему Radeon RX 590, который был крутым на момент выхода, но теперь доживает свой век в роли «так себе, зато дёшево» и не может компенсировать собой пропасть между радикально более крутой моделью, RX 5700 (к которой без 20 тысяч не подходи, а лучше хотя бы с 22 000) и совсем уж вариантами «на тоненького» в виде GeForce GTX 1650 или RX 570/580.

Любое «а зато у него 8 Гбайт памяти!» разбивается о реальность, когда даже в разрешении 4K (а только в нём пока есть прок от такого объёма памяти) RX 590 стабильно проигрывает GeForce GTX 1660 SUPER 15-20%. Это если «по науке» и в теории. А на практике с такими настройками, при которых играм не хватает 6 Гбайт видеопамяти при 4K, обе видеокарты выдают менее 40 fps, а иногда и менее 30, поэтому такой футбол нам не нужен.

Рейтинг
( Пока оценок нет )
Понравилась статья? Поделиться с друзьями:
Сети Сити
Добавить комментарий

;-) :| :x :twisted: :smile: :shock: :sad: :roll: :razz: :oops: :o :mrgreen: :lol: :idea: :grin: :evil: :cry: :cool: :arrow: :???: :?: :!: