Ігровий потенціал комп’ютера визначається насамперед встановленою в нього відеокартою. А отже — до її вибору потрібно підходити не менш відповідально, ніж до купівлі центрального процесора або материнської плати.
У цьому гайді ми вкотре постараємося розповісти про те, на що дійсно варто звернути увагу під час вибору відеокарти, а які поширені переконання на ділі є даремними та навіть шкідливими міфами.
Що обрати — Nvidia чи AMD
Nvidia та AMD — це не відеокарти. Це, раптово, — назви компаній.
Якщо ж ви обираєте відеокарту — то обирати потрібно конкретний продукт за конкретну ціну. Орієнтуватися слід на його реальні характеристики: вартість, кількість FPS в іграх, можливості розгону і одержуваний від нього приріст продуктивності.
Для наочності — розглянемо конкретний приклад:
Radeon RX 5500 XT у версії з 4 гігабайтами набортної пам’яті коштує стільки ж, скільки GeForce GTX 1650 Super. Їхнє енергоспоживання однакове, продуктивність — теж.
Очевидно, що в цьому випадку можна вибирати і ту, і іншу карту. І, що б ви не обрали, ви абсолютно нічого не втратите.
А ось — Radeon RX 5500 XT у версії з 8 гігабайтами, який коштує стільки ж, скільки і GeForce GTX 1660:
При однаковій ціні карта від AMD виявляється вже трохи повільнішою. Так, різницю важко назвати істотною, і вже абсолютно точно вона не дасть змоги грати з вищими налаштуваннями або в більшій роздільній здатності.
Але який сенс віддавати ті ж гроші за продукт, який, нехай і дуже умовно, але слабший? Ось якщо різниця в ціні складе 2-3 тисячі рублів, які можна «вкласти» в інші комплектуючі — тоді інша справа.
Оперування міфічними параметрами на кшталт «репутації бренду», «стабільності софту» або «особливо яскравої, соковитої картинки» в підсумку приведе вас до купівлі відеокарти, яка або не справлятиметься з вашими завданнями, або покаже себе гірше, ніж рішення від конкурентів.
Від якої компанії купити карту — Gigabyte, Asus або MSI
У кожного вендора є кілька лінійок продуктів, націлених на бюджетний, середній і вищий цінові сегменти. Причому стосується це, зокрема, і карт, заснованих на одному й тому самому графічному чипі.
Є карти, що відрізняються від референсного дизайну тільки наклейкою і комплектом постачання, є продукти, орієнтовані на спрощення і здешевлення оригінальної конструкції, але є і глибоко перероблені пристрої, розраховані на ентузіастів і оверклокерів.
Відповідно, відеокарти кожного з трьох типів відрізнятимуться різними характеристиками. Наприклад, умовна відеокарта Inno3D з лінійки iChill, з масивним кулером, розробленим компанією Arctic за спецзамовленням, завжди буде холодніше, тихіше і візьме більші частоти, ніж умовна відеокарта Asus TURBO, що використовує для охолодження референсну турбіну. І ніяка «репутація бренду» цього ніколи не змінить.
Утім, не думайте, що це не працює у зворотному напрямку: відеокарта Asus ROG STRIX завжди буде тихішою, холоднішою і пристосованішою до розгону, ніж, приміром, Palit StormX на тому самому графічному чипі. А Palit Jetstream або Super Jetstream, зі свого боку, можуть нічим не поступатися Asus ROG STRIX, але перемагати їх ціною…
Потрібна ігрова відеокарта. Карта з 4 гігабайтами пам’яті підійде?
Питання можна переінакшити так: «Я хочу купити машину, що розганяється до 100 км/год за 7 секунд. Чи вистачить для цього машини з багажником об’ємом 520 літрів?». Що, погодьтеся, повний абсурд — об’єм багажника вочевидь не є фактором, що впливає на динаміку розгону автомобіля.
Одна з поширених хибних думок, що стосуються відеокарт, — те, що їхня продуктивність безпосередньо залежить від обсягу встановленої пам’яті.
Частково це вірно, але лише частково. Пам’ять, встановлена на відеокарті, — це і є своєрідний «багажник», в якому зберігається весь обсяг даних, що генеруються і використовуються графічним процесором: ігрові текстури, геометричні вершини і буфери. Якщо цього об’єму достатньо для конкретної гри — відмінно, все буде працювати в штатному режимі.
Якщо ж обсяг пам’яті малий — можуть виникнути проблеми. На сучасних платформах під потреби графіки почне виділятися частина оперативної пам’яті — однак DRR4 повільніша за GDDR5, а тим більше за GDDR6, і перехід до її ресурсів може призвести до тимчасового падіння продуктивності, що не дуже комфортно.
Знову ж таки, конкретний приклад:
Horizon Zero Dawn , роздільна здатність екрана — FullHD, налаштування графіки — високі:
Як можна бачити, Radeon RX 5500 XT у версії з 8 гігабайтами на борту використовує власну пам’ять, тоді як RX 5500 XT 4gb і GTX 1650 Super змушені використовувати частину оперативки.
До чого це призводить можна помітити за лічильником FPS, і особливо — за показником 1% подій. Обидві карти з 4 гігабайтами пам’яті на борту різко просідають, що робить ігровий процес далеким від поняття комфорту. З іншого боку, в цьому прикладі йдеться про одну роздільну здатність екрану і один набір налаштувань, за якого жодна з трьох карт не забезпечує постійних і стабільних 60 кадрів за секунду за показником середнього FPS. Отже, налаштування так чи інакше доведеться знижувати.
А що буде на середніх і низьких налаштуваннях графіки в тій же сцені?
Як можна бачити, зі зниженням налаштувань графіки споживання відеопам’яті знижується. А отже — навіть у цій вимогливій грі можна знайти компромісні параметри.
Так скільки ж у підсумку має бути набортної пам’яті? Її не повинно бути багато або мало: пам’яті має бути достатньо для гри на тих налаштуваннях, на яких графічний процесор здатний видавати комфортний рівень FPS.
Розглянемо це на конкретному прикладі: сцена з вбудованого бенчмарка гри Assassin’s Creed: Valhalla , запущеного на Radeon RX 6500 XT з 4 гігабайтами пам’яті на борту:
У прикладі зліва використовується штатний профіль «Високі налаштування». Хоча показник середнього фпс тримається на позначці в 34 кадри, постійні просідання по 1% і 0,1% рідкісних подій і нестабільний графік часу кадру роблять ігровий процес на цих налаштуваннях графіки просто неможливим. І справа не тільки в нестачі об’єму пам’яті, а й у тому, що відеокарта початкового рівня не розрахована на гру на цих налаштуваннях графіки.
Праворуч — та сама гра і та сама відеокарта, проте налаштування графіки знижені до середніх. У цьому випадку споживання відеопам’яті нижче буквально на один гігабайт, але крім цього істотно знижується і навантаження на ГПУ. 37 і 49 кадрів за рідкісними подіями, 54 і 63 кадри — за показниками мінімального і середнього фпс. І абсолютно комфортний геймплей.
Об’єм пам’яті — важлива характеристика відеокарти, але його не можна розглядати у відриві від продуктивності ГПУ, ігор і налаштувань графіки, які передбачається отримати.
І вже абсолютно точно не варто думати, ніби GeForce GT 730 і GeForce GTX 1650 Super за однакового об’єму пам’яті в 4 гігабайти дадуть змогу виставити однакові налаштування і отримати однакову продуктивність.
Так скільки відеопам’яті взагалі потрібно?
Якщо ми говоримо про сучасні ігрові відеокарти, які РЕАЛЬНО здатні тягнути ігрові новинки на високих і максимальних налаштуваннях щонайменше в FullHD, 6 або 8 гігабайт пам’яті на борту будуть обов’язкові. А для QuadHD і 4К — це і зовсім необхідний мінімум, якщо не знижувати налаштування до середніх. Але якщо ви не женетеся за максимальними налаштуваннями, або зовсім віддаєте перевагу новинкам, а не старим добрим іграм з епохи до середини 2010-х років, то і 4 гігабайт вам буде достатньо.
Для прикладу, ось стільки відеопам’яті споживає Відьмак 3 (гра 2015 року випуску) на максимальних налаштуваннях графіки в FullHD і QuadHD:
Що ж стосується відеокарт початкового рівня — обсяг пам’яті, вищий за 2 гігабайти, для них скоріше надлишковий: для відтворення медіаконтенту, апаратного прискорення браузера й ефектів інтерфейсу ОС вистачить і цього, а на ігри AAA-класу їхній ГПУ вже не розрахований.
Чи варто вибирати карти з шиною в 256 біт замість 128 біт
Порівняння відеокарт за «шириною» шини пам’яті — це всього лише ще одна спроба вибрати з незрозумілого і великого комплексу параметрів одне просте число. Так, шина «товщиною» в 256 біт може забезпечити більшу пропускну здатність, ніж шина в 128 біт, але порівнювати їх можна тільки якщо всі інші параметри однакові. Різні типи пам’яті — наприклад, GDDR5 і GDDR6 — мають абсолютно різні швидкості читання і запису і навіть різні діапазони робочих частот, що вже робить пряме порівняння безглуздим.
Але ж і тут все не так просто! Справа не тільки в самій пам’яті, але і в характеристиках ГПУ: яким обсягом даних він реально оперує, і найголовніше — наскільки ефективно ці дані стискає.
Metro: Exodus , роздільна здатність екрана — FullHD, налаштування графіки — високі, тесселяція ввімкнена, ефекти PhysX і Hairworks вимкнені:
Зліва — Radeon RX 6500 XT з шиною всього лише в 64 біта. Праворуч — GeForce GTX 1650 зі 128-бітною шиною. Обидві карти використовують пам’ять стандарту gddr6.
Як можна бачити за лічильником фпс і показниками рідкісних подій — у реальній грі швидшою виявляється зовсім не та карта, яка була «кращою» за цифрами в характеристиках.
Але розглянемо ще один приклад:
Star Wars Jedi Fallen Order , роздільна здатність екрана — FullHD, налаштування графіки — максимальні:
Зліва — Radeon RX 580 з 4 гігабайтами пам’яті gddr5 і 256-бітною шиною. Праворуч — Radeon RX 5500 XT з тими самими 4 гігабайтами, але — вже gddr6 на 128-бітній шині.
У цьому випадку все навпаки: різниця в кадрах невелика, незважаючи на те, що карти належать до двох різних поколінь і використовують різну пам’ять. Так, швидшою виявляється більш сучасна модель, але виграє вона всього 2-3 кадри.
Спокуса звести все до простого пояснення «тут цифри вищі — ця карта краща» зрозуміла. Але на практиці користі від такого пояснення не буде: скоріше навпаки, в результаті ви купите відеокарту, яка в реальності виявиться гіршою за ту, яку можна було б придбати за той самий бюджет.
Якщо вам так вже хочеться все спростити, і порівнювати відеокарти тільки за одним простим параметром — нехай цим параметром буде кількість кадрів в іграх.
Потрібно вибирати відеокарти обов’язково з пам’яттю GDDR6?
Сама по собі пам’ять стандарту gddr6 забезпечує більшу швидкість обміну даними за меншого енергоспоживання порівняно з gddr5 — це абсолютний факт. Але, як уже говорилося вище, один параметр не може визначати всі характеристики відеокарти.
Знову ж таки конкретний приклад — Red Dead Redemption II, вбудований бенчмарк. Роздільна здатність екрана — FullHD, налаштування графіки — середні:
Зліва — GeForce GTX 1660, з 6 гігабайтами пам’яті стандарту gddr5. Праворуч — GeForce GTX 1650 Super з 4 гігабайтами пам’яті стандарту gddr6.
Швидшою виявляється перша карта: на її боці і потужніший ГПУ, і більший обсяг набортної пам’яті. Хоча останнє саме тут не настільки важливе: бенчмарк задіює лише трохи більше за 3.5 гігабайт. Тип набортної пам’яті може мати визначальне значення тільки в тому випадку, якщо всі інші параметри відеокарти однакові. А таке трапляється вкрай рідко.
Мабуть, єдиний наочний приклад — GeForce GTX 1650, яка існує одразу в двох версіях: з пам’яттю стандарту gddr5, і, відповідно, з gddr6:
У цьому випадку — зрозуміло, друга версія помітно швидша в іграх. Але крім пам’яті ці карти абсолютно нічим не відрізняються, а тому такий результат закономірний.
Якщо ж порівнювати карти різних моделей, а тим більше — різних поколінь, то тип набортної пам’яті знову перетворюється на вирване з контексту одиничне значення, за яким не можна робити жодних висновків.
Чи варто міняти материнську плату, якщо на ній PCI-e 3.0, а у карти PCI-e 4.0
Різні версії інтерфейсу PCI-e сумісні між собою: відеокарту, розроблену за часів PCI-e 2.0, можна без жодних проблем встановити в плату з інтерфейсами 3.0 і 4.0. Також і відеокарті з інтерфейсом версії 4.0 ніщо не забороняє працювати в платі зі «старою» версією інтерфейсу.
Як наочний приклад можна навести докладні матеріали з розбором роботи в різних режимах відеокарти Radeon RX 5700 XT і GeForce RTX 2080 Ti.
Впливати на продуктивність відеокарти версія інтерфейсу PCI-e безпосередньо також не може, навіть якщо розглядати високопродуктивні моделі, на кшталт GeForce RTX 3080:
Однак слово «безпосередньо» в абзаці вище виділено аж ніяк неспроста, і непрямий вплив все ж має місце. Швидкісний інтерфейс важливий у тому випадку, коли споживання відеопам’яті перевищує обсяг власного буфера карти, і вона змушена використовувати частину оперативної пам’яті як резерв.
Red Dead Redemption II , FullHD і високі налаштування графіки:
На цих налаштуваннях бенчмарк задіює до 6 гігабайт відеопам’яті, і Radeon RX 5500 XT з 8 гігабайтами на борту абсолютно все одно, на якій версії інтерфейсу йому працювати. До речі, PCI-e 4.0 у цьому прикладі — ліворуч, а PCI-e 3.0 — праворуч.
А ось молодша версія з 4 гігабайтами на борту — закономірно втрачає в продуктивності, але якщо порівнювати її результати з прикладом RX 5500 XT 8gb, то втрати спостерігаються в ОБОХ випадках. PCI-e 4.0 лише дозволяє трохи згладити цей процес.
Причому саме згладити, а не виправити або компенсувати втрати. Оскільки спочатку бенчмарка PCI-e 4.0 начебто дозволяє отримати більш високий фпс, але вже до середини тестової сцени результати на PCI-e 3.0 і PCI-e 4.0 зрівнюються.
Втім, є й рідкісні винятки, коли вплив має саме пропускна здатність інтерфейсу PCI-e:
Radeon RX 6500XT — єдина поки що відеокарта ігрового класу (нехай і початкового рівня), що використовує лише 4 сигнальні лінії PCI-e. У такій конфігурації, як показали дослідження, різниця в пропускній здатності між PCI-e 4.0 і PCI-e 3.0 вже має реальне значення.
Щоправда, різниця в реальних сценаріях становить не 50, і навіть не 20 відсотків. В окремих випадках вона і зовсім дорівнює 2-3 кадрам на секунду.
Таким чином, якщо ви раптом почуєте поради про те, що під час купівлі відеокарти процесор з материнською платою теж потрібно обов’язково змінити, інакше нічого працювати не буде або старий інтерфейс «відріже» до 15% (20, 25, 30 і так далі) продуктивності відеокарти, знайте: завдання цього «порадника» — саме переконати вас зробити ще одну дорогу покупку.
А що тоді з PCI-e 5.0?
Інтерфейс п’ятої версії реалізовано на платформі Intel LGA 1700 із процесорами Core 12-ї серії та материнськими платами на чипсетах 600-ї серії.
Незважаючи на інші специфікації, зовні роз’єми PCI-e x16 ніяк не змінилися. І більше того абсолютно ніхто і ніщо не забороняє встановлювати в них актуальні відеокарти, що використовують роз’єм PCI-e 4.0! Ну а раз так — питання зворотної сумісності роз’ємів PCI-e 5.0 з відеокартами під ранні версії інтерфейсу в принципі не повинно підніматися.
А ось відеокарт, розрахованих саме на інтерфейс версії 5.0, у продажу (станом на початок 2022 року) поки що немає, тож говорити про їхні реальні характеристики не доводиться. Все поки лише на етапі чуток і домислів.
Звісно, PCI-e 5.0 забезпечує величезний приріст у пропускній спроможності, але наскільки він буде використовуватися в реальності — поки загадка. Зараз навіть флагманські відеокарти в особі Radeon RX 6900 XT і GeForce RTX 3090 не впираються в пропускну здатність 16 ліній PCI-e версії 4.0. Чи буде наступне покоління оперувати на порядок більшими обсягами даних? Не маючи доступу до карт наступного покоління — сказати складно.
Більш-менш реальним приводом для занепокоєння може слугувати перехід відеокарт під PCI-e 5.0 на новий роз’єм додаткового живлення:
Новий стандарт передбачає можливість передачі потужності до 600 ват. Але, знову ж таки, не знаючи реального енергоспоживання відеокарт наступних поколінь, важко сказати, наскільки така потужність буде затребувана. Не виключено, що подібними роз’ємами будуть оснащуватися лише флагманські моделі, а молодші рішення продовжать використовувати звичні 8- і 6-контактні колодки.
Так чи інакше, турбуватися про відеокарти наступного покоління варто починати тільки тоді, коли вони будуть представлені на ринку у вигляді реальних продуктів.
Трасування променів: важливе чи ні?
Тренд останнього часу — впровадження в ігри опрацювання освітлення в реальному часі, що дає змогу відмовитися від попереднього розміщення безлічі «штучних» джерел світла на ігровому рівні на користь глобального освітлення. А крім того — впроваджує більш реалістичні ефекти відбиття і заломлення світла від різних типів поверхонь.
У самій технології як такій немає нічого поганого. Ба більше, важко очікувати революції в графіці завдяки простому нарощуванню кількості пікселів на екрані та мегабайт у текстурах: необхідні саме якісні зміни, і трасування променів під це визначення цілком підходить.
Проблема полягає дещо в іншому.
Трасування променів хороше тільки в тому випадку, якщо обрана вами відеокарта РЕАЛЬНОздатна забезпечувати комфортний фпс в іграх з увімкненими променями.
Якщо ми говоримо про моделі відеокарт із сімейства Radeon RX 6000 і GeForce RTX 3000, то тут, зрозуміло, застережень немає місця: ви отримаєте вище за 60 FPS з увімкненими променями в будь-якій актуальній грі з роздільною здатністю FullHD і QuadHD. У 4К — уже не завжди, але навіть там можна буде підібрати компромісні налаштування графіки.
Що буде, якщо задіяти трасування променів на більш бюджетних моделях карт попереднього покоління?
Control , високі налаштування графіки, роздільна здатність екрана — FullHD.
Увімкнення трасування променів у «повній» роздільній здатності екрана просаджує продуктивність нижче 60 кадрів на всіх відеокартах — тільки RTX 2080 підбирається до заповітної позначки (а точніше — видає 59 кадрів за показником середнього ФПС).
Залучення технології апскейла DLSS виправляє ситуацію, але зображення в цьому разі генерується з меншою роздільною здатністю, а потім розтягується до FullHD, тож підсумкова якість картинки може виявитися гіршою, ніж у «повного кадру». Плюс, Control — приклад найбільш повної реалізації DLSS порівняно з іншими іграми, що підтримують трасування променів.
Так чи варто вибирати відеокарти з підтримкою трасування променів?
Якщо мова про актуальне покоління — питання позбавлене сенсу, оскільки і Radeon RX 6000, і GeForce RTX 3000 її в будь-якому разі підтримують. Не факт, що обрана вами відеокарта забезпечить комфортний фпс з увімкненими променями на тих самих налаштуваннях графіки, що і без них — але принципова можливість все одно залишиться.
А що це за DLSS, яка фпс підвищує?
Алгоритм поліпшення якості зображення, підтримуваний картами GeForce із суфіксом RTX. Тобто — для серій 2000 і 3000. Для роботи алгоритму потрібна наявність у відеокарти тензорних ядер, тож GTX 16** і більш ранні покоління, на жаль, проходять повз.
Суть алгоритму в отриманні більш якісної картинки із зображення низької роздільної здатності. Простіше кажучи — в апскейлі.
Так, за фактом все набагато складніше, і алгоритм має найпряміший стосунок до ШІ та нейромереж, проте з боку користувача робота DLSS має саме такий вигляд: продуктивність приблизно відповідатиме роздільній здатності 720p, а якість картинки — приблизно відповідатиме FullHD. Ну, або оригінальна роздільна здатність FullHD може перетворитися на подобу 4К.
Зрозуміло, основна мета досягається, і кількість кадрів за секунду приблизно відповідає вихідній роздільній здатності:
А ось із якістю — не все так очевидно, підсумковий результат варіюється від гри до гри і від об’єкта до об’єкта. Наприклад, дрібні контрастні об’єкти можуть рясніти артефактами:
З іншого боку, обличчя і волосся персонажів, особливо якщо вони перебувають у статичному положенні і на них не накладається ефект розмиття в русі, — з DLSS можуть мати навіть кращий вигляд, ніж у нативній роздільній здатності зі згладжуванням TAA:
До слова про згладжування — DLSS у деяких випадках може замінювати і його, наприклад — домальовуючи грані в об’єктів, які в оригінальній якості виглядають сильно пікселізованими, а то й зовсім губляться:
З іншого боку, хоча щілини між дошками, що зникають в оригінальній роздільній здатності та розсипаються на квадрати, DLSS справді домальовує, текстури в цьому прикладі навпаки стають менш чіткими, а дерев’яний настил місцями починає скидатися на малюнок на плоскій поверхні.
Приклад, до речі, не єдиний:
Якщо звернути увагу на гілку в центрі, то можна помітити, що її краї у варіанті з DLSS не такі різкі, і на них відсутні характерні «драбинки». Але разом з тим — текстури квіток помітно втрачають у деталізації порівняно з нативним 4К.
Безумовно, це не означає, що технологія сама по собі погана: не можна створити універсальний інструмент, який буде однаково гарний у всіх завданнях. Навпаки, появу такої технології варто вітати: масовий перехід до геймінгу в нативній роздільній здатності 4К, судячи з усього, відкладається як мінімум до виходу відеокарт наступного покоління. А якщо вас цікавить не просто висока роздільна здатність, а ще й реалістичне освітлення — то й того довше. Та й можливість підняти продуктивність у нових іграх за відсутності більш продуктивних відеокарт і грошей на них — це просто відмінно
Мінус у DLSS рівно один: це жорстка прив’язка до технологій Nvidia і необхідність наявності апаратних ядер у ГПУ. Тобто, якщо у вас встановлена щонайменше RTX 2060, а ще краще — RTX 3060, ви самі зможете ввімкнути DLSS і перевірити якість картинки в іграх, що підтримують цю технологію. А ось з GTX 1650 або GTX 1050, на жаль, нічого не вийде.
Ну, якщо тільки не…
Альтернатива DLSS
Технологія AMD FidelityFX Super Resolution не задіює ШІ для домальовування відсутніх частин зображення, але зате не вимагає спеціалізованих апаратних рішень, і працює на набагато більшій кількості відеокарт, причому навіть на продуктах Nvidia.
Як і DLSS, FSR розроблялася для підвищення продуктивності у високій роздільній здатності за рахунок апскейлу менш насиченої пікселями картинки.
Зі своїм прямим завданням ця технологія справляється, і справляється не гірше, ніж DLSS:
А ось з якістю картинки з вищеназваних причин не все так однозначно. Якщо DLSS може буквально добудовувати кадр, нехай і не завжди успішно, то FSR — це набір ефектів постобробки, що накладаються на оригінальне зображення.
Так — більш ефективний порівняно з іншими методами апскейла:
Так — дає змогу наблизити якість картинки до нативної роздільної здатності. Але — не добудовує того, чого в оригінальному кадрі немає. Що, в підсумку, може призводити до подібних результатів:
У прикладі вище і без коментарів видно, як FSR і DLSS працюють з об’єктами на задньому плані. Якщо FSR буквально повторює зображення, отримане в нативній роздільній здатності FullHD, то DLSS, як уже йшлося в попередньому абзаці, згладжує краї тросів і домальовує елементи, що губляться. З іншого боку, де слабкіше DLSS — там сильніше FSR…
God of War , апскейл до QuadHD, DLSS у режимі Quality, FSR — в Ultra Quality. Інакше кажучи — обидві технології в режимі максимальної якості. І обидві працюють на RTX 3080.
DLSS вкотре краще працює з далекою перспективою — просто зверніть увагу на лапи у ялинок у середній частині екрана, та й загалом на дальність промальовування.
А тепер подивіться на текстури каміння в правій нижній частині, деталізацію кори у дерева в правому кутку, а особливо — на хутряні та шкіряні частини одягу Кратоса. Усі ці об’єкти мають чіткіший вигляд саме завдяки FSR.
Також чіткішою і набагато контрастнішою виглядає хвоя у маленької ялинки в центрі — тут теж питання до алгоритмів згладжування у DLSS. Але, мабуть, основна перевага FSR — це саме великий ступінь свободи для технології. Причому це стосується як офіційних специфікацій: у списку сумісних відеокарт набагато більше моделей, ніж у DLSS:
Так і неофіційних експериментів: як це часто буває з продуктами AMD, ентузіасти швидко дісталися до недокументованих можливостей, і знайшли спосіб задіяти технологію навіть у тих додатках, де вона використовуватися не повинна:
Таким чином, FSR буквально не залишає вам вибору. Не потрібно шукати карти з підтримкою цієї технології — не виключено, що вони у вас уже є.
Чи варто вибирати відеокарту під процесор
Ні, відеокарту вибирають під ігри — або під робочі завдання, які планують вирішувати з її допомогою.
Залежність же ігор від процесора, по-перше, здебільшого перебільшена, а по-друге — абсолютно ніколи не буває лінійною і не зводиться до простої формули «дорожчий процесор — більший FPS» , яку пропонують вам «розкривашки».
Total War: Three Kingdoms . Гра, досить вимоглива до ресурсів центрального процесора, яка до того ж використовує переваги багатопотоку:
Зліва — Intel Core i9-9900KF. Праворуч — Intel Core i7-9700KF. Обидва процесори розігнані до 5000 МГц, частота кільцевої шини піднята до 4700 МГц, відеокарта RTX 2080 Ti працює в штатному для неї режимі, всі інші умови ідентичні. При цьому, у випадку з Core i7-9700KF FPS у бенчмарку виявляється… вищим!
Так, це винятково окремий випадок, пов’язаний з тим, що технологія Hyper Threading, що відрізняє Core i9 від Core i7, в іграх далеко не завжди працює коректно, і продуктивність старшої (. ) моделі ЦПУ за інших однакових умов виявляється нижчою, ніж у молодшої.
WarThunder , що є вже діаметрально протилежним прикладом, оскільки рушій гри донині активно використовує не більше 2-х ядер процесора:
Зліва — знову Core i9-9900KF, але цього разу — в номінальному для нього режимі. 4700 МГц по всіх ядрах за рахунок технології MCE, 4300 МГц на кільцевій шині.
Праворуч — уже Core i5-9600KF, розігнаний рівно до тих самих параметрів. Усі інші характеристики системи ідентичні, в якості відеокарти знову використовується RTX 2080 Ti.
Різниця в FPS очевидна. У даному випадку Core i9 в принципі не може мати ніяких переваг над Core i5 — гра просто не використовує «зайві» ядра. А технологія Hyper Threading тут знову поводиться не найкращим чином, що і дозволяє Core i5-9600KF видавати трохи більше кадрів за секунду.
Ті самі умови, ті самі Core i9 і Core i5, але Assassin’s Creed: Odyssey, що використовує переваги багатопотоку:
Продуктивність з Core i5-9600KF тут уже нижча на 10-15 кадрів, тобто ні про яке перетворення RTX 2080 Ti на RTX 2060 тут не йдеться, та й й йти не може. До речі, ось це — RTX 2060 у тому ж тесті і за тих же налаштувань. Порівняйте показники лічильника FPS:
У кожної гри свої вимоги до характеристик центрального процесора. Так, десь використовується максимально доступна кількість ядер і, наприклад, старі процесори під ту саму платформу LGA 2011 можуть не тільки ефективно справлятися з грою, випущеною на 7 років пізніше за них самих, а й забезпечувати комфортніший геймплей, ніж сучасні бюджетні моделі під LGA 1200.
Десь навпаки — кількість ядер не має значення, важлива тільки тактова частота і продуктивність в однопотоковому навантаженні. Якісь ігри через особливості рушія в принципі мало залежні від процесора і більш вимогливі до відеокарти. Та й сама «залежність» від характеристик процесора в одній і тій самій грі може змінюватися зі зміною роздільної здатності екрана і налаштувань графіки: що вища роздільна здатність, то вищий вплив відеокарти, і менш помітна різниця між швидшими та менш швидкими ЦПГ.
Розкривашки ж ці факти ігнорують і зводять все до однієї простої тези: «дорожчий і новий процесор — кращий». Але для кого саме краще — зазвичай замовчують. Тому, якщо ви зважилися на апгрейд відеокарти, не варто задаватися питанням «а чи розкриє?» — ним і без вас багато хто задається.
Ваше запитання — наскільки продуктивності поточного процесора достатньо для ігор, у які ви плануєте грати. Якщо відповідь на нього позитивна — беріть нову відеокарту. Якщо негативна — розглядайте можливі варіанти апгрейда, нехай навіть і в рамках нинішньої платформи.
Так на що тоді потрібно звертати увагу під час вибору відеокарти?
1) На її ціну.
Парадоксально, але це одночасно найочевидніший і найбільш… неоднозначний параметр. З одного боку, задумавши покупку, ви вже знаєте, яку суму теоретично готові витратити, і в яких лімітах ця сума може змінюватися, якщо це необхідно.
З іншого боку, ціна не завжди відображає реальну продуктивність відеокарти. Можливі казуси, коли карта старої і менш продуктивної моделі коштує стільки ж, скільки швидший сучасний аналог.
Можливі й цікавіші варіанти, коли карта, заснована на менш продуктивному ГПУ, але оснащена топовим охолодженням і переробленою платою коштує стільки ж або буквально трохи дешевше, ніж продуктивніші карти з «меншим рівнем пафосу»:
Саме тому ніколи не варто впиратися в єдиний варіант — завжди можуть бути вигідніші альтернативи.
Навіть якщо вам здається, що обраний вами варіант оптимальний за всіма параметрами, навіть якщо його навперебій радять «інтернет-знавці», навіть якщо ви передивилися купу оглядів саме на цю модель — в реаліях ринку співвідношення ціни і характеристик може виявитися не найвигіднішим.
Тому — завжди вибирайте кілька варіантів, що потрапляють у ваш вихідний бюджет, але також залишайте невеликий запас для «маневрів». Повірте, але 25 тисяч рублів за карту, здатну тягнути ігри в FullHD на високих налаштуваннях графіки, і 27 тисяч рублів за карту, здатну тягнути ті самі ігри на максимальних налаштуваннях, або з комфортом грати в QuadHD — це дуже сумнівна різниця в ціні.
Обов’язково стежте за знижками та акціями магазину, а також цікавтеся термінами виходу новинок — з появою навіть просто нових моделей на чіпах поточного покоління цінова політика вендора може помітно змінитися, а на дії одного виробника обов’язково відреагують конкуренти.
Крім того, не посоромтеся дізнатися, скільки коштує на ринку б/в комплектуючих ваша нинішня відеокарта. Не виключено, що її продаж дасть змогу додати значну суму до бюджету на купівлю нової.
2) Продуктивність.
Цей аспект цілком очевидний, і більше того — саме він визначає підсумковий вибір. За яку б ціну ви не обирали відеокарту — вона повинна з лишком відпрацьовувати кожен вкладений рубль.
Але не варто оцінювати продуктивність за відгуками і коментарями в стилі «літаїть на ультрах!». Їх можна написати про який завгодно пристрій. Та й, як правило, єдине, з чим користувачі можуть порівняти свою покупку — це їхня стара відеокарта, яка може бути старшою відразу на кілька поколінь. Природно, це не дасть зрозуміти, який вигляд відеокарта має на тлі прямих конкурентів.
Ваш варіант — прямі порівняльні тестування, що проводяться авторитетними виданнями за участю якщо не всіх, то більшості конкуруючих рішень. Ознайомившись з ними, ви будете уявляти, наскільки обрана відеокарта швидша або повільніша за найближчі аналоги, а отже — зробите аргументований вибір.
3) Енергоспоживання відеокарти
Безумовно, ідеальний сценарій — це якщо під час купівлі відеокарти і раптової нестачі потужності вашого нинішнього блока живлення ви просто йдете в магазин і купуєте новий блок.
Але, по-перше, давайте називати речі своїми іменами: далеко не у всіх із нас бюджети дають змогу купити одночасно два не найдешевші девайси.
А по-друге, енергоспоживання відеокарт деякі люди розуміють настільки по-своєму, що поради купувати блоки потужністю в 750 ват під GeForce GTX 1650 Super і Radeon RX 5500 XT у сучасних інтернетах — жодного разу не рідкість.
У цих умовах завдання — купити відеокарту, з якою впорається ваш нинішній блок, і з іншого боку — не витратити гроші на новий блок, потужність якого свідомо надлишкова для конфігурації з новою відеокартою.
Як це зробити? Досить просто, і є два можливих способи.
Перший із них — прочитати огляд на відеокарту від авторитетного джерела. Так, нерідко в оглядах вказується енергоспоживання всієї системи, а не окремо відеокарти — але так виходить навіть більш наочно. Адже, якщо тестова система на умовному Core i9-9900K у розгоні показує пікове енергоспоживання на рівні 580 ват, а в ігровому режимі їсть 300-350 ват, то ваш комп’ютер із знову ж таки, умовним Core i5-9400F споживатиме очевидно менше.
Другий спосіб — детально ознайомитися з характеристиками карти, яка вас цікавить. Тільки не з тими, що надруковані в таблиці зі специфікаціями, а з тими, що зберігаються в самій карті. А точніше — в її BIOS.
Одна з ключових характеристик сучасних відеокарт — ліміт енергоспоживання. Програмне обмеження, обійти яке карта сама по собі не може. Так, якщо карті призначено ліміт у 130 ват — необхідність блоку на 750-800 ват для неї дещо… сумнівна.
Тут, до речі, слід зробити одне дуже важливе застереження. Відеокарта — це лише одна з частин системи, в якій живуть процесор, материнська плата, оперативна пам’ять, SSD, жорсткі диски і навіть корпусні вентилятори. Усі ці «сусіди» теж живляться електрикою, і під час роботи теж хочуть їсти. Тому розраховувати потужність блоку живлення необхідно виходячи з вимог не відеокарти, а всієї системи в цілому.
4) Роз’єми додаткового живлення
Цей пункт також стосується БЖ, однак його варто винести окремо.
Сучасні відеокарти ігрового класу здебільшого споживають більше електрики, ніж здатний забезпечити слот PCI-e x16, а тому оснащуються роз’ємами додаткового живлення, що з’єднують карту безпосередньо з БЖ.
Роз’єми ці стандартизовані і можуть налічувати 6 або 8 контактів.
Але справа в тому, що різні версії карт навіть однієї моделі можуть використовувати різні поєднання цих роз’ємів:
- два 6-контактних;
- один 6- і один 8-контактний;
- один 8-контактний роз’єм;
- два 8-контактні роз’єми;
- два 8-контактних і один 6-контактний роз’єм;
- три 8-контактні роз’єми.
Перш ніж вибирати конкретну модель карти, потрібно упевнитися, що ваш блок має потрібну кількість роз’ємів додаткового живлення для пристроїв PCI-e. Якщо їх немає, або кількість недостатня — можна скористатися перехідниками 4-контактних роз’ємів Molex, але в такому разі їх варто придбати або заздалегідь, або одночасно з купівлею карти.
І так — останнім часом парадоксальна плутанина виникає навколо роз’ємів 6+2-pin PCI-e на блоках живлення. У коментарях можна прочитати багато дивних і невимовно диких речей, але в реальності цей роз’єм робиться розбірним якраз для того, щоб ним можна було під’єднувати карти і з 8-, і з 6-контактними колодками.
5) Фізичні розміри карти
Різні версії карт на одному й тому самому графічному чипі можуть оснащуватися різними системами охолодження, а отже, мати різну довжину і товщину.
Водночас комп’ютерні корпуси можуть допускати встановлення відеокарт суворо визначеної довжини, а роз’єми PCI-e на материнських платах розташовувати так, що карти розширення можна розташувати тільки в суворо визначеній послідовності. Це, звісно, не катастрофа, але чи готові ви особисто міняти заради відеокарти ще й корпус комп’ютера, або відмовлятися від звичної та підходящої вам звукової карти? Якщо ні, то перед покупкою обов’язково вивчіть, скільки місця цікава вам карта займає в довжину, і скільки слотів розширення на материнській платі перекриває її система охолодження:
Можливо, щоб зберегти нинішній корпус і карти розширення, вам доведеться вибрати іншу, компактнішу модель карти. Можливо, вона навіть відрізнятиметься вищими температурами та/або підвищеним рівнем шуму порівняно з масивнішою моделлю, але тут уже вам вирішувати, що пріоритетніше. І вирішувати слід заздалегідь, а не після купівлі карти.
6) Роз’єми для виведення сигналу на монітор
З одного боку, сильної плутанини роз’єми для підключення до монітора не викликають. З іншого — далеко не всі карти мають ті роз’єми, які є саме на вашому моніторі. І особливо це стосується саме сучасних моделей.
Так, роз’єм VGA канув у невідомість разом із відеокартами GeForce серії 900 і Radeon серії 300. Сучасні відеокарти не підтримують виведення аналогового сигналу зовсім: ні через нативний роз’єм VGA, ні через комбінований DVI-I їх на картах поточних поколінь просто немає.
Якщо ви використовуєте монітор, що під’єднується виключно через аналоговий інтерфейс, можна скористатися конвертерами (наприклад, HDMI-VGA), що перетворюють цифровий сигнал на аналоговий. Однак, якщо бути чесним, таке рішення — напівзахід. Гарантувати якість картинки на моніторі жоден подібний перехідник не може, так що користь від них сумнівна. Та й коштують вони чимало, і набагато вигідніше буде взяти ці гроші, продати ваш старий монітор на вторинному ринку, додати отриману суму і купити вже інший монітор, що підтримує цифрові інтерфейси.
До речі, цифровий роз’єм DVI-D теж стає зникаючим видом: останні моделі відеокарт від нього відмовляються на користь HDMI і DisplayPort.
Втім, отримати «цифру» з «цифри» не набагато простіше, і перехідники HDMI-DVI коштують набагато дешевше активних конвертерів. Але, якщо обрана вами карта потребує перехідників, краще дізнатися про це заздалегідь і купити їх одночасно з самою картою, а не їздити в магазин двічі.
7) Ефективність системи охолодження й акустичний комфорт
Цей пункт стоїть останнім у списку — однак не тому, що він не важливий, а тому, що ним можна пожертвувати заради придбання продуктивнішої відеокарти, або карти, сумісної за габаритами і роз’ємами з іншим вашим обладнанням.
Але, зрозуміло, про температури відеокарти під навантаженням і рівень видаваного нею шуму забувати не варто.
Відеокарти референсного дизайну з кулером типу «турбіна» купувати не рекомендується — нехай сучасні ГПУ і не настільки гарячі, конструктивним недоліком таких кулерів залишається мала площа поверхні радіатора. І щоб ефективно зняти з нього тепло — турбіні доведеться розкручуватися до досить високих швидкостей. А вища швидкість — більше шуму. Тихохідні кулери вендорського дизайну в цьому плані куди кращі.
Втім, і ганятися за найтоповішими версіями відеокарт сьогодні теж не має сенсу. Навіть якщо розглядати карти рівня того ж Radeon RX 5700 XT — реальна різниця в температурах може виявитися трохи нижчою за різницю в ціні. А розкид за частотами в даному випадку легко компенсується ручним налаштуванням.
Перед купівлею відеокарти слід уважно вивчити огляди, в яких показана конструкція встановленої системи охолодження і протестована її ефективність. Тут також бажано порівняння з конкурентами, однак висновки можна зробити і за графіками температур і шуму одиночної карти.
Також слід пам’ятати, що сприйняття шуму в кожної людини індивідуальне, і до того ж сильно залежить від природного шумового фону в приміщенні. Орієнтуйтеся на такі цифри:
- 25-30 децибел — природний шумовий фон глухої ночі у квартирі із закритими вікнами за відсутності інших джерел шуму.
- 40 децибел — тиха розмова.
- 55-60 децибел — середній рівень шуму вдень в офісі.
Критерії та варіанти вибору
Відеокарти початкового рівня підійдуть для офісних завдань, відтворення мультимедійного контенту і досить старих і невимогливих ігор. Якщо розглядати відеокарти для мультимедійного ПК, зібраного в компактному корпусі, на окрему увагу заслуговують низькопрофільні карти.
Однак, вибирати їх слід з оглядкою на інші комплектуючі. Якщо у вас відносно старе залізо, або ж процесор не оснащений вбудованою графікою — покупка, безумовно, матиме сенс.
Якщо ж ПК тільки планується збирати — варто звернути увагу на центральні процесори з порівняно потужною вбудованою графікою.
Також, якщо у вас старий монітор з інтерфейсом VGA, і міняти його з тієї чи іншої причини ви не хочете — безумовно, має сенс подивитися відеокарти з нативним роз’ємом VGA або DVI-I. Підключити до них такий монітор набагато простіше, ніж до сучасних аналогів.
Однак майте на увазі, що це здебільшого будуть старі й далеко не найпродуктивніші моделі. Тому, якщо заміна монітора — не ваш шлях, варто купити конвертер сигналу на допомогу більш сучасній відеокарті.
Якщо необхідно більше продуктивності, але з ігор цікавлять насамперед різні мережеві проекти — можна обмежитися ігровими відеокартами початкового рівня. На практиці вони здатні і на більше, ніж DOTA і Танки — щоправда, в більш серйозних проєктах доведеться обмежитися середніми налаштуваннями графіки.
Середні налаштування і FPS, що лише трохи перевищує межу комфорту — не ваш варіант? Зверніть увагу на карти, що становлять основну частку середнього цінового сегмента. На практиці вони здатні і на більше, ніж дота і танки — щоправда, в більш серйозних проєктах доведеться обмежитися середніми налаштуваннями графіки.
На верхній межі середнього цінового сегмента розташувалися карти, здатні підняти налаштування в FullHD ближче до максимальних. З ними теж немає сенсу замахуватися на вищу роздільну здатність, але актуальність вони збережуть трохи довше за попередні варіанти.
Не надто прискіпливі до графіки, але берете карту з розрахунком не апгрейдити її впродовж кількох років? Варто звернути увагу на карти з нижньої межі топового сегмента. Обійдуться вони вже дорожче за попередні варіанти, але далеко не в рази. А актуальність збережуть куди на довше — не виключено, що витрати виявляться набагато меншими, ніж у разі купівлі середньобюджетної карти сьогодні та її заміни на аналог з наступного покоління.
Хочете спробувати нові технології, грати в роздільних здатностях 2К і 4К з високими налаштуваннями і комфортним FPS, або ж вам потрібна карта для онлайн-трансляцій? Тут уже в справу вступають флагмани з безкомпромісною ціною і настільки ж безкомпромісною продуктивністю.