Напевно ви чули, що у відеокарті є якась шина, і чим вона ширша – тим краще. Що чим більше пам’яті – тим карта швидша, і не дай Бог купити дешеве виконання. Часто після цього люди купують якусь RTX 4060 Ti на 16 гігабайт в найкрутішому виконанні і з здивованим обличчям дивляться на 15-20 кадрів в секунду.
Так, якщо вибирати відеокарту, виходячи з «міфів», то нічого хорошого не вийде. Давайте подивимося – чим ТОЧНО не варто керуватися при виборі відеокарти.
Міф 1. Характеристики чіпа про щось говорять
Це в якійсь мірі справедливо для процесорів, де можна зробити висновки про його продуктивність, якщо знати характеристики чіпа (об’єм кеш-пам’яті, кількість ядер і так далі). З відеокартами так не вийде, оскільки їх завдання надто відрізняються від завдань центрального процесора, і, якщо простими словами, навантаження на чіп у відеокарти набагато менш рівномірне.
Це означає, що в деяких додатках поліпшені блоки будуть давати набагато більше продуктивності, ніж ядра. Наприклад, у завданнях нейронного навчання відеокарта з 512 CUDA-ядрами, але з наявністю тензорних ядер, виявиться швидшою за відеокарту з 5-6 тисячами CUDA-ядер, але без тензорних ядер. Іншими словами, графічний процесор треба вибирати не за принципом «більше ядер = краще», а виходячи з тестів у ваших завданнях.
Переглянути їх можна в інтернеті, бажано порівнювати кілька моделей відеокарт між собою в конкретних додатках. Дивно, але відеокарта, характеристики якої «на папері» кращі в 2–3 рази, може видавати менше продуктивності, ніж новіша, хоч і слабка відеокарта.
Міф 2. Відеопам’яті багато не буває
Один з найстаріших і найживіших міфів, який пропонує вимірювати продуктивність відеокарти за її обсягом відеопам’яті. Це неправильно, оскільки відеопам’ять і графічний процесор – два окремих вузли, і, наприклад, RTX 4060 Ti 8Gb і її 16-гігабайтна версія за продуктивністю практично не відрізняються.
Більший обсяг пам’яті дасть приріст продуктивності тільки в тому випадку, якщо версії з меншим обсягом його не вистачає, що досить рідко (зазвичай обмежуючим фактором стає сам відеочіп), та й відеокарти-заглушки з великим обсягом пам’яті (наприклад, GT 1030 на 4 Гб) ігровими не стають.
Пам’ять – важливий параметр, але дивитися треба не тільки на неї. Вона може стати обмежуючим фактором (якщо її мало), але про продуктивність відеокарти обсяг пам’яті нічого не говорить. Краще подивитися на її пропускну здатність, яка дійсно може впливати на продуктивність.
Міф 3. Професійні відеокарти кращі за ігрові
Цей міф народився через ціну професійних прискорювачів, які нерідко коштують в 4-5 разів дорожче, ніж їх «ігрова» версія. Логічно припустити, що і ФПС в іграх вони повинні видавати більше, або якось покращувати картинку, але це не зовсім так. Пограти на професійній відеокарті, звичайно, можна, тільки вона видасть трохи менше ФПС, ніж її ігрова версія.
Ці відеокарти (Nvidia Quadro або AMD Pro) взагалі не призначені для ігор. Вони побудовані на базі звичайних графічних процесорів, але в їх повній конфігурації – з включеними FP-64 блоками, які у ігрових відеокарт відключені. Крім того, вони виробляються одним вендором (для цілодобової підтримки і швидкого вирішення проблем), мають занижені частоти і в 2-3 рази більше відеопам’яті, ніж у ігрових аналогів (пам’ять професійних відеокарт ще й незвичайна – вона підтримує ECC, тобто функцію корекції помилок).
Все це сильно прискорює роботу в проф додатках, коли потрібно, наприклад, спроектувати вертоліт. Ось тільки іграм всі ці блоки, збільшений обсяг пам’яті і наявність корекції помилок не потрібні. Їм потрібна висока продуктивність звичайних FP32 ядер, блоків текстурування і растеризації, які у професійних відеокарт працюють на знижених частотах.
Міф 4. Ігрові відеокарти не підходять для роботи
Так, у зворотному напрямку це теж працює. Багато хто думає, що для роботи в фото- або відеоредакторах обов’язково потрібна професійна відеокарта, вона ж «професійна». Як я вже говорив, відмінність проф. карти від ігрової – розблоковані функції, які спрямовані не стільки на прискорення розрахунків, скільки на їх безпомилковість і точність, отже, приріст продуктивності від професійної відеокарти буде хіба що в системах автоматичного проектування або в тих завданнях, де потрібна висока точність (так як у ігрових відеокарт блоки FP-32, як правило, урізаються в 8 разів по відношенню до блоків FP-64).
А фото- або відеоредактори, або програми для дизайну, для малювання, загалом – майже будь-яка програма, яку ви використовуєте для роботи, не потребує цих блоків і не завантажує блоки обчислення з плаваючою комою. Скажу більше: відеокарта майже у всіх цих додатках використовується обмежено, і на продуктивність впливає не стільки її потужність, скільки факт наявності окремої відеокарти в системі.
Так що для умовного відеомонтажу або роботи в Фотошопі професійна відеокарта не потрібна, не потрібна їм і флагманська модель ігрової відеокарти. Достатньо буде бюджетної ігрової відеокарти.
Міф 5. Чим дорожча версія відеокарти – тим краще
У відеокарт є різні виконання, наприклад, якась дешева двовентиляторна RTX 4060, яка стоїть поруч із суперкрутою тривентиляторною і світиться, але теж RTX 4060, явно викликає питання в дусі «а чи не небезпечно брати дешеву версію»? Не небезпечно! Але чому тоді існують дорогі версії?
Відповісти на це питання можна в дусі «у машин є комплектації – у відеокарт, відповідно, теж». Якщо якийсь вендор захотів виділитися, він зробив свою карту крутішою, але і дорожчою. На платі такої карти буде розпаяно більше фаз живлення, буде встановлено більш потужне охолодження, але на продуктивності це не позначається майже ніяк – в кращому випадку дає вам можливість трохи сильніше розігнати відеочіп, в чому зараз не так багато сенсу.
Щодо надійності – не турбуйтеся, дешеві версії відеокарт теж виробляються з запасом по міцності компонентів на платі, тому ніякої необхідності в покупці дорогої версії відеокарти немає. З іншого боку, нічого поганого в цьому теж немає, так що якщо ви свідомо хочете який-небудь Strix замість Dual – чому ні?
На які параметри дійсно потрібно дивитися?
Якщо так подумати, то вибір відеокарти – далеко не проста справа, як, наприклад, вибір процесора. Але якщо на все перераховане вище дивитися не варто, то як її вибрати? На які параметри дійсно варто дивитися?
Для початку відкидаємо старі відеокарти, які досі продаються. Дивимося в бік або актуального, або попереднього покоління, бо чим старша відеокарта – тим сильніше її технологічне відставання в порівнянні з новими рішеннями.
Далі дивимося підтримку технологій – різного роду «розумні згладжування», генерація кадрів в іграх і реалізація трасування променів.
Ну а порівняти продуктивність відеокарт в реальних завданнях можна, тільки подивившись їх тести. Вони не на 100% об’єктивні (так як скрізь відеокарту не протестувати), проте дають розуміння, як конкретна модель відеокарти поводиться в конкретних іграх.