Сучасні графічні процесори. Лікнеп по мобільному залізу: графічні процесори. Як відстежити використання загального ресурсу GPU

У сучасних пристроях застосовується графічний процесор, який позначають як GPU. Що це і який його принцип роботи? GPU (Graphics - процесор, основне завдання якого - обробка графіки та обчислень з плаваючою точкою. GPU полегшує роботу головного процесора, якщо йдеться про важкі ігри та програми з 3D-графікою.

Що це?

Графічний процесор створює графіку, текстури, кольори. Процесор, який має кілька ядр, може працювати на високих швидкостях. У графічного багато ядер, що функціонують переважно на низьких швидкостях. Вони займаються обчисленнями пікселів та вершин. Обробка останніх переважно відбувається у системі координат. Процесор графічний обробляє різні завдання, створюючи на екрані тривимірне місце, тобто об'єкти в ньому переміщуються.

Принцип роботи

Що робить графічний процесор? Він займається обробкою графіки у форматі 2D та 3D. Завдяки GPU комп'ютеру швидше та легше вдається виконувати важливі завдання. Особливість графічного процесора у тому, що він збільшує швидкість розрахунку максимальному рівні. Його архітектура влаштована так, що дозволяє ефективніше обробляти візуальну інформацію, ніж центральний CPU комп'ютера.

Він відповідає за розташування тривимірних моделей у кадрі. Крім того, кожен із процесора фільтрує трикутники, що входять до нього. Він визначає, які на увазі, видаляє ті, що ховаються за іншими об'єктами. Промальовує джерела світла, визначає, як ці джерела впливають колір. Графічний процесор (що таке - описано у статті) створює зображення, видає його користувачеві на екран.

Ефективність роботи

Чим зумовлена ​​ефективна робота графічного процесора? Температурою. Одна з проблем ПК та ноутбуків - перегрів. Саме це стає головною причиною того, чому пристрій та його елементи швидко виходять з ладу. Проблеми з GPU починаються коли температура процесора перевищує 65 °С. У цьому випадку користувачі зауважують, що процесор починає працювати слабше, пропускає такти, щоб самостійно знизити збільшену температуру.

Температурний режим 65-80 ° С – критичний. У цьому випадку починається перезавантаження системи (аварійне), комп'ютер вимикається самостійно. Користувачеві важливо відстежувати, щоб температура графічного процесора не перевищувала 50 °С. Нормальною вважається t 30-35 ° С у просте, 40-45 ° С при багатогодинному навантаженні. Чим нижча температура, тим вище продуктивність комп'ютера. Для материнської плати, відеокарти, корпусу та жорстких дисків – свої температурні режими.

Але багатьох користувачів також непокоїть питання, як зменшити температуру процесора, щоб підвищити ефективність його роботи. Для початку необхідно з'ясувати причину перегріву. Це може бути засмічення системи охолодження, висохла термопаста, шкідлива програма, розгін процесора, сира прошивка БІОС. Найпростіше, що може зробити користувач, це замінити термопасту, яка знаходиться на самому процесорі. Крім того, необхідно провести чищення системи охолодження. Ще фахівці радять встановити потужний кулер, покращити циркуляцію повітря у системному блоці, збільшити швидкість обертання на графічному адаптері кулера. Для всіх комп'ютерів та графічних процесорів однакова схема зниження температури. Важливо стежити за пристроєм, вчасно чистити його.

Специфіка

Графічний процесор розташований на відеокарті, його головне завдання – це обробка 2D та 3D графіки. Якщо на комп'ютері встановлено GPU, процесор пристрою не виконує зайву роботу, тому функціонує швидше. Головна особливість графічного в тому, що його основна мета – це збільшення швидкості розрахунку об'єктів та текстур, тобто графічної інформації. Архітектура процесора дозволяє працювати набагато ефективніше, обробляти візуальну інформацію. Звичайному процесору таке не під силу.

Види

Що це – графічний процесор? Це компонент, який входить до складу відеокарти. Існує кілька видів чіпів: вбудований та дискретний. Фахівці стверджують, що краще справляється зі своїм завданням другим. Його встановлюють на окремі модулі, так як він відрізняється своєю потужністю, але йому необхідно відмінне охолодження. Вбудований графічний процесор є практично у всіх комп'ютерах. Його встановлюють у CPU, щоб зробити споживання енергії у кілька разів нижче. З дискретними по потужності він не зрівняється, але теж має хороші характеристики, демонструє непогані результати.

Комп'ютерна графіка

Це що? Так називається область діяльності, в якій для створення зображень та обробки візуальної інформації використовують комп'ютерні технології. Сучасна комп'ютерна графіка, зокрема наукова, дозволяє графічно обробляти результати, будувати діаграми, графіки, креслення, і навіть проводити різноманітні віртуальні експерименти.

З допомогою конструктивної графіки створюються технічні вироби. Існують інші види комп'ютерної графіки:

  • анімаційна;
  • мультимедійна;
  • художня;
  • рекламна;
  • ілюстративні.

З технічного погляду комп'ютерна графіка - це двовимірні та тривимірні зображення.

CPU та GPU: різниця

У чому різниця між цими двома позначеннями? Багато користувачів знають, що графічний процесор (що це - розказано вище) і відеокарта виконують різні завдання. Крім того, вони відрізняються за своєю внутрішньою структурою. І CPU, і GPU - які мають багато подібних рис, але зроблені вони для різних цілей.

CPU виконує певний ланцюжок інструкцій за короткий проміжок часу. Він зроблений так, що формує одночасно кілька ланцюжків, розбиває потік інструкцій на множину, виконує їх, потім знову зливає в одне ціле в конкретному порядку. Інструкція в потоці залежить від тих, що за нею слідують, тому в CPU міститься мала кількість виконавчих блоків, тут головний пріоритет віддається швидкості виконання, зменшенню простоїв. Все це досягається за допомогою конвеєра та кеш-пам'яті.

У GPU інша важлива функція – рендеринг візуальних ефектів та 3D-графіки. Працює він простіше: на вході отримує полігони, проводить необхідні логічні та математичні операції, на виході видає координати пікселів. Робота GPU – це оперування великим потоком різних завдань. Його особливість у тому, що він наділений великим, але повільно працює в порівнянні з CPU. Крім того, у сучасних GPU понад 2000 виконавчих блоків. Відрізняються між собою методами доступу до пам'яті. Наприклад, графічному не потрібна кешована пам'ять великого розміру. У GPU пропускна здатність більша. Якщо пояснювати простими словами, то CPU приймає рішення відповідно до завдань програми, а GPU робить безліч однакових обчислень.

Отримав можливість відстежувати дані продуктивності графічного процесора (GPU). Користувачі можуть аналізувати цю інформацію, щоб зрозуміти, як використовуються ресурси відеокарти, які все частіше використовуються в обчисленнях.

Це означає, що всі встановлені в ПК графічні процесори будуть відображатися на вкладці "Продуктивність". Крім того, на вкладці “Процеси” можна переглянути, які процеси отримують доступ до графічного процесора, а дані використання пам'яті GPU розміщуються на вкладці “Подробности”.

Як перевірити чи підтримується функція перегляду продуктивності графічного процесора

Хоча Диспетчер завдань не висуває особливих вимог для моніторингу процесора, пам'яті, диска або мережевих адаптерів, ситуація з графічними процесорами виглядає трохи інакше.

У Windows 10 інформація про графічний процесор доступна в Диспетчері завдань лише при використанні архітектури Windows Display Driver Model (WDDM). WDDM – це архітектура графічних драйверів для відеокарти, яка дозволяє виконувати рендеринг робочого столу та програм на екрані.

WDDM передбачає наявність графічного ядра, яке включає планувальник (VidSch) та менеджер відеопам'яті (VidMm). Саме ці модулі відповідають за прийняття рішень під час використання ресурсів графічного процесора.

Диспетчер завдань отримує інформацію про використання ресурсів GPU безпосередньо від планувальника та менеджера відеопам'яті графічного ядра. Причому це справедливо як у випадку з інтегрованими, так і у випадку з виділеними графічними процесорами. Для коректної роботи функції потрібна WDDM версія 2.0 або вище.

Щоб перевірити, чи підтримують ваші пристрої перегляд даних GPU в Диспетчері завдань, виконайте такі дії:

  1. Використовуйте клавіші Windows + R , щоб відкрити команду “Виконати”.
  2. Введіть команду dxdiag.exe, щоб відкрити засіб діагностики DirectX і натисніть клавішу Enter.
  3. Перейдіть на вкладку "Екран".
  4. У правій секції “Драйвери” перегляньте значення моделі драйвера.

Якщо використовується модель WDDM 2.0 або вище, Диспетчер завдань буде виводити дані про використання графічних процесорів на вкладці "Продуктивність".

Як відстежувати продуктивність графічного процесора за допомогою Диспетчера задач

Щоб відстежувати дані продуктивності графічного процесора за допомогою Менеджер завдань, просто клацніть правою кнопкою миші на панелі завдань і виберіть пункт Диспетчер завдань. Якщо активний компактний режим перегляду, натисніть кнопку "Докладніше", а потім перейдіть на вкладку "Продуктивність".

Порада: для швидкого запуску Диспетчер задач можна використовувати поєднання клавіш Ctrl + Shift + Esc

Вкладка Продуктивність

Якщо ваш комп'ютер підтримує WDDM версії 2.0 або пізнішої версії, на лівій панелі вкладки Продуктивністьвідображатиметься ваш графічний процесор. У випадку, якщо в системі встановлено кілька графічних процесорів, кожен з них показуватиметься з використанням номера, що відповідає його фізичному розташування, наприклад, Графічний процесор 0, Графічний процесор 1, Графічний процесор 2 і т.д.

Windows 10 підтримує зв'язки кількох графічних процесорів з використанням режимів Nvidia SLI та AMD Crossfire. Коли одна з цих конфігурацій виявлена ​​в системі, вкладка "Продуктивність" буде вказувати кожний зв'язок із використанням номера (наприклад, Зв'язок 0, Зв'язок 1 тощо). Користувач зможе бачити та перевіряти кожен графічний процесор у межах зв'язування.

На сторінці певного графічного процесора ви знайдете узагальнені дані про продуктивність, які у випадку розділені на два розділи.

Розділ містить поточну інформацію про двигуни самого GPU, а не про окремі його ядра.

Диспетчер завдань за замовчуванням відображає чотири найбільш затребуваних движки GPU, які за замовчуванням включають 3D, копіювання, декодування відео та обробку відео, але ви можете змінити ці уявлення, клацнувши назву та обравши інший движок.

Користувач може навіть змінити вигляд графіка на один двигун, клацнувши правою кнопкою миші в будь-якому місці розділу та вибравши опцію "Змінити графік > Одне ядро".

Нижче графіків двигунів розташувався блок даних про споживання відеопам'яті.

Диспетчер завдань показує два типи відеопам'яті: загальну та виділену.

Виділена пам'ять - це пам'ять, яка використовуватиметься лише графічною картою. Зазвичай це об'єм VRAM на дискретних картах або об'єм пам'яті, доступний для процесора, на якому комп'ютер налаштований на резервування.

У нижньому правому куті відображається параметр “Зарезервована апаратна пам'ять” - цей обсяг пам'яті зарезервований для відеодрайвера.

Об'єм виділеної пам'яті в цьому розділі представляє обсяг пам'яті, що активно використовується в процесах, а обсяг загальної пам'яті в цьому розділі є обсягом системної пам'яті, що споживається для графічних потреб.

Крім того, в лівій панелі під назвою графічного процесора ви побачите поточний показник використання ресурсів GPU у відсотках. Важливо, що диспетчер завдань використовує відсоток найбільш завантаженого двигуна для представлення загального використання.

Щоб побачити дані про продуктивність у динаміці, запустіть програму, яка інтенсивно використовує графічний процесор, наприклад, відеогру.

Вкладка Процеси

Ви також можете відстежувати продуктивність графічного процесора на вкладці Процеси. У цьому розділі ви знайдете узагальнене зведення для певного процесу.

Стовпець "Графічний процесор" показує використання найбільш активного движка для представлення загального використання ресурсів GPU конкретним процесом.

Однак, якщо кілька двигунів повідомляють про 100-відсоткове використання може виникнути плутанина. Додатковий стовпець “Ядро графічного процесора” повідомляє детальну інформацію про завантажений процесом двигуна.

У заголовку стовпця на вкладці “Процеси” відображається загальне споживання ресурсів всіх доступних у системі графічних процесорів.

Якщо ви не бачите ці стовпці, клацніть правою кнопкою миші на заголовку будь-якого стовпця і позначте відповідні пункти.

Вкладка Деталі

За промовчанням вкладка не відображає інформацію про графічний процесор, але ви завжди можете клацнути правою кнопкою миші по заголовку стовпця, вибрати опцію "Вибрати стовпці" та включити такі параметри:

  • Ядро графічного процесора
  • Виділена пам'ять графічного процесора
  • Загальна пам'ять графічного процесора

Вкладки пам'яті відображають загальний та виділений обсяги пам'яті відповідно, які використовуються конкретним процесом. Стовпці “Графічний процесор” і “Ядро графічного процесора” показують таку інформацію, як у вкладці “Процеси”.

Якщо ви використовуєте вкладку “Подробности”, потрібно знати, що додавання пам'яті кожним процесом може виявитися більше, ніж загальна доступна пам'ять, оскільки загальна пам'ять буде підраховуватися кілька разів. Ця інформація корисна для розуміння використання пам'яті в процесі, але ви повинні використовувати вкладку "Продуктивність", щоб побачити більш точну інформацію щодо використання графічної підсистеми.

Висновок

Microsoft прагне надати користувачам більш точний інструмент оцінки продуктивності графічної підсистеми порівняно зі сторонніми програмами. Зауважимо, робота над даною функціональністю триває і найближчим часом можливі поліпшення.

А ви знаєте, як вибрати для роботи програми або гри кращий графічний процесор з двох наявних варіантів? Якщо ні, то власникам ноутбуків пропоную ознайомитись із цією статтею.

На сьогоднішній день навіть середній за вартістю та продуктивністю ноутбук поставляється із двома відеокартами. Перша, що працює за замовчуванням, - це вбудована, друга - дискретна. Додатковим графічним процесором здебільшого комплектуються ігрові моделі ноутбуків, але не рідкість знайти його і на неігровій установці.

Зі вбудованих вибір невеликий і зазвичай це чіп від Intel, а ось дискретні можуть бути як і від Nvidia, так і від AMD. Це найпоширеніші та повірені користувачами у роботі продукти. І виробники, в першу чергу, намагаються комплектувати пристрої, виходячи з наших з вами переваг.

Тепер коротко розглянемо процес взаємодії двох відеокарт. Коли вимоги будь-якого працюючого додатка перевищують можливості вбудованої карти, система автоматично переключається на роботу з дискретною. Це відбувається, в основному, коли ви починаєте грати в ігри.

Як згадувалося вище, ринку ПК першість тримають два основних виробника графічних процесорів. Варто відзначити, що найбільш широко застосовується Nvidia, використовує відносно нову технологію Optimus. Її функціональність полягає в тому, що кожного разу, коли вона виявляє, що програма або гра потребує додаткових, потужніших ресурсів, автоматично задіюється виділений GPU.

А зараз я покажу вам, як можна легко змусити програму використовувати високопродуктивний або інтегрований GPU на вибір користувача. Сьогодні це буде продемонстровано лише з NVIDIA та Intel.

ГРАФІЧНИЙ ПРОЦЕСОР

Відкрийте панель керування NVIDIA. Найпростіший і найшвидший спосіб – це клікнути правою кнопкою миші на відповідному значку, розміщеному на Панелі завдань у нижньому правому кутку. Перейдіть до меню «Робочий стіл» та встановіть позначку навпроти пункту «Додати пункт до контекстного меню».

Тепер, після цих простих дій, ви зможете натиснути правою кнопкою миші на ярлику будь-якої програми і, в пункті меню, вибрати один з двох варіантів запуску.

ПОСТОЯННИЙ ЗАПУСК

А якщо ви вирішили постійно лише з використанням дискретної відеокарти, то необхідно в Панелі керування перейти до розділу «Управління параметрами 3D», вибрати вкладку «Програмні налаштування» та встановити у п.1 необхідну гру або програму, а в п.2 вибрати потрібну відеокарту , після чого натиснути кнопку «Застосувати».

От і все! Відвідайте та ознайомтесь з усіма наявними комп'ютерними порадами. Стати учасником нашої групи у FB, де зможете отримати допомогу, а також брати участь в обговореннях або публікувати свою точку зору.

На що ми дивимося насамперед, вибираючи собі смартфон? Якщо на хвилинку відволіктися від вартості, то в першу чергу ми звичайно вибираємо розмір екрану. Потім нас цікавить камера, обсяг оперативної, кількість ядер та частота роботи процесора. І тут все просто: чим більше, тим краще, а чим менше, тим відповідно гірше. Однак у сучасних пристроях використовується ще й графічний процесор, він же є GPU. Що це таке, як він працює і чому про нього важливо знати, ми розповімо нижче.

GPU (Graphics Processing Unit) – це процесор, призначений виключно для операцій з обробки графіки та обчислень з плаваючою точкою. Він насамперед існує для того, щоб полегшити роботу основного процесора, коли справа стосується ресурсомістких ігор або програм з 3D-графікою. Коли ви граєте в будь-яку гру, GPU відповідає за створення графіки, кольорів та текстур, тоді як CPU може зайнятися штучним інтелектом чи розрахунками механіки гри.

Архітектура графічного процесора не дуже відрізняється від архітектури CPU, але вона більш оптимізована для ефективної роботи з графікою. Якщо змусити графічний процесор займатися будь-якими іншими розрахунками, він покаже себе з гіршого боку.

Відеокарти, які підключаються окремо та працюють на високих потужностях, існують лише у ноутбуках та настільних комп'ютерах. Якщо ми говоримо про Android-пристрої, то говоримо про інтегровану графіку і те, що ми називаємо SoC (System-on-a-Chip). Наприклад, у процесорі Snapdragon 810 інтегрований графічний процесор Adreno 430. Пам'ять, яку він використовує для своєї роботи, це системна пам'ять, у той час як для відеокарт у настільних ПК виділяється доступна тільки їм пам'ять. Щоправда, існують і гібридні чіпи.

У той час як процесор з кількома ядрами працює на високих швидкостях, графічний процесор має багато процесорних ядер, що працюють на низьких швидкостях і займаються лише обчисленням вершин та пікселів. Обробка вершин переважно крутиться навколо системи координат. GPU обробляє геометричні завдання, створюючи тривимірне місце на екрані і дозволяючи об'єктам переміщатися в ньому.

Обробка пікселів є складнішим процесом, що вимагає великої обчислювальної потужності. У цей момент графічний процесор накладає різні шари, застосовує ефекти, робить все для створення складних текстур та реалістичної графіки. Після того, як обидва процеси будуть оброблені, результат переноситься на екран вашого смартфона або планшета. Все це відбувається мільйони разів на секунду, поки ви граєте в якусь гру.

Звичайно ж, ця розповідь про роботу GPU є дуже поверховою, але її достатньо для того, щоб скласти правильне загальне уявлення і зуміти підтримати розмову з товаришами або продавцем електроніки або зрозуміти - чому ваш пристрій так сильно нагрівся під час гри. Пізніше ми обов'язково обговоримо переваги тих чи інших GPU у роботі з конкретними іграми та завданнями.

За матеріалами AndroidPit

Що таке графічний процесор і як він працює Ернест Василевський

androidinsider.ru

Що таке GPU у вашому комп'ютері?

Доброго часу доби, мої дорогі друзі і гості мого блогу. Сьогодні я хотів би поговорити трохи про апаратну частину наших комп'ютерів. Скажіть, будь ласка, ви чули про таке поняття як GPU? Виявляється просто багато хто вперше чують таку абревіатуру.

Як би банально це не звучало, але сьогодні ми живемо в еру комп'ютерних технологій, і часом складно знайти людину, яка не має поняття, як працює комп'ютер. Так, наприклад, комусь достатньо усвідомлення, що комп'ютер працює завдяки центральному процесору (CPU).

Хтось піде далі і дізнається, що є ще якийсь GPU. Така хитромудра абревіатура, але схожа на попередню. Тож давайте розберемося, що таке GPU в комп'ютері, які вони бувають і які відмінності є у нього з CPU.

style="display:block" data-ad-client="ca-pub-4066320629007052" data-ad-slot="5193769527"

data-ad-format="auto">

Не велика різниця

Простими словами, GPU - це графічний процесор, коли його називають відеокартою, що є помилкою. Відеокарта - це готовий компонентний пристрій, до складу якого якраз і входить нами процесор, що описується. Він здатний обробляти команди на формування тривимірної графіки. Варто відзначити, що він є для цього ключовим елементом, від його потужності залежить швидкодія та різні можливості відеосистеми загалом.

Графічний процесор має свої відмінні риси в порівнянні з його побратимом CPU. Основна відмінність у архітектурі, де він побудований. Архітектура GPU побудована в такий спосіб, що дозволяє обробляти великі масиви даних ефективніше. CPU, у свою чергу, обробляє дані та завдання послідовно. Звичайно, не варто сприймати цю особливість як мінус.

Види графічних процесорів

Існує не так багато видів графічних процесорів, один з них називається, як дискретний, і застосовується на окремих модулях. Такий чіп досить потужний, тому для нього потрібна система охолодження з радіаторів, кулерів, особливо навантажених системах може застосовуватися рідинне охолодження.

Сьогодні ми можемо спостерігати значний крок у розвиток графічних компонентів, що зумовлюється появою великої кількості видів GPU. Якщо раніше будь-який комп'ютер доводилося постачати дискретною графікою, щоб мати доступ до ігор або інших графічних програм, то зараз таке завдання може виконувати IGP - інтегрований графічний процесор.

Інтегрованою графікою зараз постачають практично кожен комп'ютер (за винятком серверів), чи то ноутбук, чи настільний комп'ютер. Сам відеопроцесор вбудований в CPU, що дозволяє значно знизити енергоспоживання і саму ціну пристрою. Крім того, така графіка може бути і в інших підвидах, наприклад дискретна або гібридно-дискретна.

Перший варіант має на увазі найдорожче рішення, розпаювання на материнській платі або окремий мобільний модуль. Другий варіант називається гібридним неспроста, фактично він використовує відеопам'ять невеликого розміру, яка розпаяна на платі, але при цьому здатний розширювати її рахунок оперативної пам'яті.

Звичайно, такі графічні рішення не можуть порівнятися з повноцінними дискретними відеокартами, але вже зараз показує досить добрі показники. У будь-якому випадку, розробникам є куди прагнути, можливо, за таким рішенням майбутнє.

Ну, а на цьому в мене, мабуть, все. Сподіваюся, що стаття вам сподобалась! Чекаю на вас знову у себе на блозі в гостях. Удачі вам. Бувай!

koskomp.ru

Вбудований графічний процесор – навіщо він потрібен?


Що таке вбудована графіка?

Вбудований графічний процесор як для геймерів, так і для невимогливих користувачів відіграє важливу роль.

Від нього залежить якість ігор, фільмів, перегляду відео в інтернеті та зображень.


Графічний процесор вбудований у материнську плату

Графічний процесор інтегрується в материнську плату комп'ютера - це виглядає вбудований графічний процесор.

Як правило, використовують його, щоб усунути необхідність встановлення графічного адаптера - відеокарти.

Така технологія допомагає зменшити собівартість готового продукту. Крім того, завдяки компактності та невибагливого енергоспоживання таких процесорів їх часто встановлюють у ноутбуки та малопотужні настільні комп'ютери.

Таким чином, вбудовані графічні процесори заполонили цю нішу настільки, що 90% ноутбуків на полицях магазинів США мають саме такий процесор.

Замість звичайної відеокарти у вбудованих графіках часто допоміжним засобом є оперативна пам'ять комп'ютера.

Щоправда, таке рішення дещо обмежує продуктивність девайсу. Все ж таки сам комп'ютер і графічний процесор використовують одну шину для пам'яті.

Так що подібне "сусідство" позначається на виконанні завдань, особливо під час роботи зі складною графікою та під час ігрового процесу.

Повернутись до меню

Види графічних процесорів

Вбудована графіка має три групи:

  1. Графіка з пам'яттю - пристрій, в основі якого спільне з головним процесором управління оперативною пам'яттю. Це значно зменшує вартість, покращує систему енергозбереження, проте погіршує продуктивність. Відповідно, для тих, хто працює зі складними програмами, вбудовані графічні процесори такого виду з більшою ймовірністю не підійдуть.
  2. Дискретна графіка - відеочіп та один-два модулі відеопам'яті розпаяні на системній платі. Завдяки цій технології суттєво покращується якість зображення, а також стає можливим працювати з тривимірною графікою з найкращими результатами. Правда, заплатити за це доведеться чимало, а якщо ви й підшукуєте високопотужний процесор за всіма параметрами, то вартість може бути неймовірно високою. До того ж, рахунок за електрику дещо зросте - енергоспоживання дискретних графічних процесорів вище за звичайний.
  3. Гібридна дискретна графіка – поєднання двох попередніх видів, що забезпечило створення шини PCI Express. Таким чином, доступ до пам'яті здійснюється через розпаяну відеопам'ять, і через оперативну. За допомогою цього рішення виробники хотіли створити компромісне рішення, але воно все ж таки не нівелює недоліки.
повернутися до меню

Займаються виготовленням та розробкою вбудованих графічних процесорів, як правило, великі компанії – Intel, AMD та Nvidia, але підключаються до цієї сфери і багато невеликих підприємств.

Відеокарти від AMD користувачі вважають потужнішими, ніж ті ж Intel. Однак чим же не потрапили Intel? Якщо вірити статистиці, то вони є лідерами продажів мікросхем.

Повернутись до меню

Графічні процесори від Intel

Ця компанія почала використовувати вбудовані відеокарти з виходу Westmere.

Після нього HD Graphics ставили лише Pentium і Celeron. З покоління Haswell розробили нову класифікацію чіпів: 4 – Haswell, 5 – Broadwell. Але з покоління в Skylake маркування знову змінилося.

Маркування ділиться на чотири види:

  • P – вимкнене відеоядро;
  • C – спеціально розроблена для LGA;
  • R – для BGA;
  • H – розраховано на мобільні пристрої (Iris Pro).
повернутися до меню

Одна з останніх розробок Intel у сфері інтегрованих відеокарт - Intel HD Graphics 530.

Його виробники позиціонують як оптимальне рішення навіть для найпотужніших ігор, щоправда, реальність не настільки оптимістична.

Засновано нову відеокарту на графічному ядрі Skylake. Воно ж, у свою чергу, будується на основі одного або кількох модулів, кожен із яких складається з трьох секцій.

Вони з'єднують по 8 пристроїв-виконавців, що обробляють графічні дані, і, до того ж, містять спеціальні модулі, що працюють з пам'яттю, і текстурні семплери.

До того ж, графічне ядро ​​має позамодульну частину, що покращує та додає деякі функції.

Зараз фірма Intel працює безпосередньо зі збільшенням потужності своєї продукції, а також додаванням нових функцій.

Наприклад, у GPU запустили нову технологію Lossless Render Target Compression, яка дозволяє здійснювати рендринг відео без істотних втрат як.

До того ж компанія працювала над збільшенням швидкодії інтегрованих процесорів в іграх на 3-11%.

Розробники попрацювали і над якістю відтворення відео - його інтегрована відеокарта підтримує і в роздільній здатності.

Що стосується ігор, то більша частина буде працювати нормально, але для затятих геймерів все ж таки варто звернути увагу на AMD 10.

Їхня графічна продуктивність значно перевищує показники HD Graphics 530. Так що відеоядро HD Graphics 530 підійде більшою мірою для невибагливих мережних ігор і, звичайно ж, потягне звичайні міні-ігри.

Повернутись до меню

Графічні процесори від AMD

Процесори AMD із вбудованим графічним ядром є чи не прямими конкурентами Intel.

Суперництво, звичайно, полягає у наданні найкращого співвідношення ціна/якість. Як не дивно, AMD таки відстає від свого суперника, у якого частка продажу вища.

Проте працюють процесори AMD часом значно краще.

Щоправда, ситуація зовсім інша, коли йдеться про дискретні процесори. Близько 51% частка AMD. Отже, якщо вас цікавить саме дискретна графіка, варто звернути увагу саме на цю компанію.

Одна з останніх розробок AMD, яка складає непогану конкуренцію Intel HD Graphics 530 - AMD A10-7850K.

Повернутись до меню

Відноситься цей тип інтегрованої графіки до гібридного вигляду. Ядро Kaveri містить 8 асинхронних обчислювальних двигунів. Причому доступ до системної пам'яті у них із x86-ядрами рівноцінний.

Зокрема, за допомогою HSA обчислювальні кластери виконують власні процеси незалежно від інших ядер.

Таким чином, A10-7850К має у розпорядженні 4 обчислювальні ядра та 8 графічних кластерів.

AMD із цього приводу називає цю розробку 12-ядерним процесором. Щоправда, не все так гладко: 12 ядер не є рівнозначними, їм потрібні спеціалізовані програмні коди.

Сама ж ОС не помітить жодних додаткових восьми ядер, а побачить ті самі 4x86-ядра.

Загалом, x86-складова дещо псує все враження.

Наприклад, тактова частота неабияк постраждала. Причому настільки, що навіть попередня модель сильнішою буде. Може, у майбутньому виробник доопрацьовуватиме цей параметр. Все ж таки показник хоча б у 4 ГГц покращив працездатність та швидкодію.

На сьогоднішній день середня частота роботи цієї вбудованої графіки під час серйозного навантаження становить 3,8 ГГц. У звичайному положенні сягає 1,7 ГГц.

Таким чином, дана модель дискретної графіки в міру потужна, але і дешевша за аналог від Intel. Ігри такий пристрій потягне, роботу із тривимірним зображенням теж.

Повернутись до меню

Виходи інтегрованої відеокарти

Включити інтегровану графіку не складає особливих труднощів. Найчастіше сам монітор виводить зображення із підключеної до нього відеокарти.

Щоправда, такий автоматичний режим не завжди спрацьовує. Тоді і потрібно самостійно зайнятися вирішення проблеми – поміняти налаштування у БІОС.

Зробити це неважко. Знайдіть напис Primary Display або Init Display First. Якщо не бачите, пошукайте Onboard, PCI, AGP або PCI-E (все залежить від встановлених шин на материнку).

Вибравши PCI-E, наприклад, ви включаєте відеокарту PCI-Express, а вбудовану інтегровану відключаєте.

Таким чином, щоб увімкнути інтегровану відеокарту, потрібно знайти відповідні параметри в біосі. Часто процес увімкнення автоматичний.

Повернутись до меню

Як увімкнути вбудований процесор

Відключення краще проводити у БІОС. Це найпростіший і невигадливий варіант, що підходить для практично всіх ПК. Винятком є ​​хіба деякі ноутбуки.

Знову ж таки знайдіть у БІОС Peripherals або Integrated Peripherals, якщо ви працюєте на десктопі.

Для ноутбуків назва функції інша, причому й не скрізь однакова. Так що просто знайдіть щось, що стосується графіки. Наприклад, необхідні настройки можуть бути розміщені в розділах Advanced і Config.

Відключення також проводиться по-різному. Іноді вистачає просто натиснути “Disabled” і виставити PCI-E відеокарту першою у списку.

Якщо ви користувач ноутбука, не лякайтеся, якщо не можете знайти відповідний варіант, у вас апріорі може не бути такої функції. Для всіх інших пристроїв правила прості - як би не виглядав сам БІОС, начинка та ж.

Якщо ви маєте дві відеокарти і вони обидві показані в диспетчері пристроїв, справа зовсім проста: клікнете на одну з них правою стороною мишки і виберіть "відключити". Щоправда, враховуйте, що дисплей може згаснути. У ноутбуків, найімовірніше, так і буде.

Однак і це вирішувана проблема. Достатньо перезавантажити комп'ютер або ж підключити другий монітор HDMI або VGA.

Проведіть на ньому всі наступні налаштування. Якщо цей спосіб не працює, зробіть відкат своїх дій за допомогою безпечного режиму. Також можете вдатися і до попереднього способу – через БІОС.

Дві програми – NVIDIA Control Center та Catalyst Control Center – налаштовують використання певного відеоадаптера.

Вони найбільш невибагливі у порівнянні з двома іншими способами - екран навряд чи вимкнеться, через БІОС ви теж випадково не зб'єте налаштування.

Для NVIDIA усі параметри знаходяться в розділі 3D.

Вибрати бажаний відеоадаптер можна і для всієї операційної системи, і для певних програм та ігор.

У ПЗ Catalyst ідентична функція розташована в опції "Харчування" у підпункті "Switchable Graphics".

Таким чином, переключитися між графічними процесорами не становить особливих труднощів.

Існують різні методи, зокрема, і через програми, і через БІОС, Включення або вимкнення тієї чи іншої інтегрованої графіки може супроводжуватися деякими збоями, пов'язаними переважно із зображенням.

Може згаснути екран або просто з'явитися спотворення. На самі файли в комп'ютері нічого не повинно вплинути, хіба що ви наклацали щось у БІОСі.

Повернутись до меню

Чи потрібна вбудована графіка?

У результаті, вбудовані графічні процесори мають попит за рахунок своєї дешевизни і компактності.

За це доведеться платити рівнем продуктивності самого комп'ютера.

У деяких випадках інтегрована графіка просто необхідна – дискретні процесори ідеальні для роботи з тривимірними зображеннями.

До того ж, лідери галузі – Intel, AMD та Nvidia. Кожен із них пропонує свої графічні прискорювачі, процесори та інші складові.

Останні популярні моделі – Intel HD Graphics 530 та AMD A10-7850K. Вони є досить функціональними, але мають деякі огріхи. Зокрема, це відноситься до потужності, продуктивності та вартості готового продукту.

Включити або відключити графічний процесор з вбудованим ядром можна або самостійно через БІОС, утиліти та різного роду програми, але і сам комп'ютер цілком може зробити це за вас. Все залежить від того, яка відеокарта підключена до самого монітора.

geek-nose.com

Графічний процесор (особливості функціонування та структури)

Сучасні відеокарти, з вимог від них величезної обчислювальної потужності під час роботи з графікою, оснащуються власним командним центром, інакше кажучи - графічним процесором.

Це було зроблено для того, щоб «розвантажити» центральний процесор, який через свою широку «сферу застосування» просто не в змозі справлятися з вимогами, які висуває сучасна ігрова індустрія.

Графічні процесори (GPU) за складністю абсолютно не поступаються центральним процесорам, але через свою вузьку спеціалізацію, в змозі більш ефективно справлятися із завданням обробки графіки, побудовою зображення, з подальшим виведенням його на монітор.

Якщо говорити про параметри, то вони у графічних процесорів дуже схожі на центральні процесори. Це вже відомі всім параметри, такі як мікроархітектури процесора, тактова частота роботи ядра, техпроцес виробництва. Але вони мають і досить специфічні характеристики. Наприклад, важлива характеристика графічного процесора – це кількість піксельних конвеєрів (Pixel Pipelines). Ця характеристика визначає кількість пікселів, що обробляються, за один такт роботи GPU. Кількість даних конвеєрів може відрізнятися, наприклад, у графічних чіпах серії Radeon HD 6000, їхня кількість може досягати 96.

Піксельний конвеєр займається тим, що прораховує кожен наступний піксель чергового зображення з урахуванням його особливостей. Для прискорення процесу прорахунку використовується кілька паралельно працюючих конвеєрів, які прораховують різні пікселі того самого зображення.

Також кількість піксельних конвеєрів впливає на важливий параметр - швидкість заповнення відеокарти. Швидкість заповнення відеокарти можна розрахувати, помноживши частоту ядра на кількість конвеєрів.

Давайте розрахуємо швидкість заповнення, наприклад, для відеокарти AMD Radeon HD 6990 (рис.2) Частота ядра GPU цього чіпа становить 830 МГц, а кількість піксельних конвеєрів – 96. Нехитрими математичними обчисленнями (830х96) дорівнюватиме 57,2 Гпіксель/c.

Крім піксельних конвеєрів, розрізняють ще про текстурні блоки у кожному конвеєрі. Що більше текстурних блоків, то більше текстур може бути накладено за один прохід конвеєра, що також впливає на загальну продуктивність усієї відеосистеми. У вищезгаданому чіпі AMD Radeon HD 6990 кількість блоків вибірки текстур становить 32х2.

У графічних процесорах можна виділити й інший вид конвеєрів - вершинні, вони відповідають за розрахунок геометричних параметрів тривимірного зображення.

Тепер, розглянемо поетапний, трохи спрощений, процес конвеєрного розрахунку, з подальшим формуванням зображення:

1-й етап. Дані про вершини текстур надходять до вершинних конвеєрів, які займаються розрахунком параметрів геометрії. На цьому етапі підключається блок T&L (Transform & Lightning). Цей блок відповідає за освітлення та трансформацію зображення у тривимірних сценах. Обробка даних у вершинному конвеєрі проходить рахунок програми вершинного шейдера (Vertex Shader).

GPU (Graphics Processing Unit) – це процесор, призначений виключно для операцій з обробки графіки та обчислень з плаваючою точкою. Він насамперед існує для того, щоб полегшити роботу основного процесора, коли справа стосується ресурсомістких ігор або програм з 3D-графікою. Коли ви граєте в будь-яку гру, GPU відповідає за створення графіки, кольорів та текстур, тоді як CPU може зайнятися штучним інтелектом чи розрахунками механіки гри.

На що ми дивимося насамперед, вибираючи собі смартфон? Якщо на хвилинку відволіктися від вартості, то в першу чергу ми звичайно вибираємо розмір екрану. Потім нас цікавить камера, обсяг оперативної, кількість ядер та частота роботи процесора. І тут все просто: чим більше, тим краще, а чим менше, тим відповідно гірше. Однак у сучасних пристроях використовується ще й графічний процесор, він же є GPU. Що це таке, як він працює і чому про нього важливо знати, ми розповімо нижче.

Архітектура графічного процесора не дуже відрізняється від архітектури CPU, але вона більш оптимізована для ефективної роботи з графікою. Якщо змусити графічний процесор займатися будь-якими іншими розрахунками, він покаже себе з гіршого боку.

Відеокарти, які підключаються окремо та працюють на високих потужностях, існують лише у ноутбуках та настільних комп'ютерах. Якщо ми говоримо про пристрої, то говоримо про інтегровану графіку і те, що ми називаємо SoC (System-on-a-Chip). Наприклад, в процесорі інтегрований графічний процесор Adreno 430. Пам'ять, яку він використовує для своєї роботи, це системна пам'ять, у той час як для відеокарт у настільних ПК виділяється доступна тільки їм пам'ять. Щоправда, існують і гібридні чіпи.

У той час як процесор з кількома ядрами працює на високих швидкостях, графічний процесор має багато процесорних ядер, що працюють на низьких швидкостях і займаються лише обчисленням вершин та пікселів. Обробка вершин переважно крутиться навколо системи координат. GPU обробляє геометричні завдання, створюючи тривимірне місце на екрані і дозволяючи об'єктам переміщатися в ньому.

Обробка пікселів є складнішим процесом, що вимагає великої обчислювальної потужності. У цей момент графічний процесор накладає різні шари, застосовує ефекти, робить все для створення складних текстур та реалістичної графіки. Після того, як обидва процеси будуть оброблені, результат переноситься на екран вашого смартфона або планшета. Все це відбувається мільйони разів на секунду, поки ви граєте в якусь гру.

Звичайно ж, ця розповідь про роботу GPU є вельми поверховою, але її достатньо для того, щоб скласти правильне загальне уявлення і зуміти підтримати розмову з товаришами або продавцем електроніки або зрозуміти чому ваш пристрій так сильно нагрівся під час гри. Пізніше ми обов'язково обговоримо переваги тих чи інших GPU у роботі з конкретними іграми та завданнями.

За матеріалами AndroidPit