Vstavané GPU – všetko o pripájaní a odpájaní. Ako sledovať využitie GPU v Správcovi úloh systému Windows GPU 0, čo to znamená

  • 15.03.2020

V moderných zariadeniach sa používa grafický procesor, ktorý sa označuje aj ako GPU. Čo to je a aký je princíp jeho fungovania? GPU (Graphics) - procesor, ktorého hlavnou úlohou je spracovávať grafiku a výpočty s pohyblivou rádovou čiarkou.GPU uľahčuje prácu hlavnému procesoru pri náročných hrách a aplikáciách s 3D grafikou.

Čo je toto?

GPU vytvára grafiku, textúry, farby. Procesor s viacerými jadrami môže bežať pri vysokých rýchlostiach. Grafická karta má veľa jadier, ktoré pracujú hlavne pri nízkych rýchlostiach. Vykonávajú výpočty pixelov a vrcholov. Spracovanie týchto údajov prebieha hlavne v súradnicovom systéme. Grafický procesor spracováva rôzne úlohy tak, že na obrazovke vytvára trojrozmerný priestor, čiže objekty v ňom sa pohybujú.

Princíp činnosti

Čo robí GPU? Venuje sa spracovaniu grafiky v 2D a 3D formáte. Vďaka GPU môže počítač vykonávať dôležité úlohy rýchlejšie a jednoduchšie. Zvláštnosťou GPU je, že zvyšuje rýchlosť výpočtu na maximálnej úrovni. Jeho architektúra je navrhnutá tak, že dokáže spracovať vizuálne informácie efektívnejšie ako centrálny CPU počítača.

Je zodpovedný za usporiadanie trojrozmerných modelov v ráme. Každý z procesorov navyše filtruje trojuholníky v ňom obsiahnuté. Určuje, ktoré sú viditeľné, odstraňuje tie, ktoré sú skryté za inými objektmi. Kreslí svetelné zdroje, určuje, ako tieto zdroje ovplyvňujú farbu. Grafický procesor (čo to je - popísané v článku) vytvorí obrázok, zobrazí ho používateľovi na obrazovke.

Efektívnosť

Čo robí GPU efektívnym? teplota. Jedným z problémov počítačov a notebookov je prehrievanie. To je hlavný dôvod, prečo zariadenie a jeho prvky rýchlo zlyhajú. Problémy s GPU začínajú, keď teplota procesora prekročí 65 ° C. V tomto prípade si používatelia všimnú, že procesor začína pracovať slabšie, preskakuje cykly, aby sám znížil zvýšenú teplotu.

Teplotný režim 65-80 ° C je kritický. V tomto prípade sa systém reštartuje (núdzovo), počítač sa sám vypne. Pre používateľa je dôležité zabezpečiť, aby teplota GPU nepresiahla 50 °C. Normálna je t 30-35 °C v čase nečinnosti, 40-45 °C pri mnohohodinovom zaťažení. Čím nižšia teplota, tým lepší výkon počítača. Pre základnú dosku, grafickú kartu, puzdro a pevné disky - ich vlastné teplotné podmienky.

Mnoho používateľov sa však obáva aj otázky, ako znížiť teplotu procesora, aby sa zvýšila jeho účinnosť. Najprv musíte zistiť príčinu prehriatia. Môže to byť upchatý chladiaci systém, suchá tepelná pasta, malvér, pretaktovanie procesora, nespracovaný firmvér BIOS. Najjednoduchšia vec, ktorú môže používateľ urobiť, je vymeniť teplovodivú pastu, ktorá je na samotnom procesore. Okrem toho musíte vyčistiť chladiaci systém. Odborníci tiež odporúčajú nainštalovať výkonný chladič, zlepšiť cirkuláciu vzduchu v systémovej jednotke a zvýšiť rýchlosť otáčania na grafickom adaptéri chladiča. Pre všetky počítače a GPU rovnaká schéma znižovania teploty. Je dôležité monitorovať zariadenie, vyčistiť ho včas.

Špecifickosť

Grafický procesor je umiestnený na grafickej karte, jeho hlavnou úlohou je spracovávať 2D a 3D grafiku. Ak je v počítači nainštalovaný GPU, procesor zariadenia nevykonáva zbytočnú prácu, takže funguje rýchlejšie. Hlavnou črtou grafiky je, že jej hlavným cieľom je zvýšiť rýchlosť výpočtu objektov a textúr, teda grafických informácií. Architektúra procesora im umožňuje pracovať oveľa efektívnejšie, spracovávať vizuálne informácie. Bežný procesor to nedokáže.

Druhy

Čo je GPU? Toto je komponent, ktorý je súčasťou grafickej karty. Existuje niekoľko typov čipov: vstavané a diskrétne. Odborníci tvrdia, že druhý sa so svojou úlohou vyrovná lepšie. Je inštalovaný na samostatných moduloch, pretože sa vyznačuje výkonom, ale potrebuje vynikajúce chladenie. Takmer všetky počítače majú integrovaný grafický procesor. Je inštalovaný v CPU, aby bola spotreba energie niekoľkonásobne nižšia. Nedá sa porovnávať s diskrétnymi, ale má tiež dobré vlastnosti a vykazuje dobré výsledky.

Počítačová grafika

Čo je toto? Toto je názov oblasti činnosti, v ktorej sa počítačové technológie používajú na vytváranie obrazov a spracovanie vizuálnych informácií. Moderná počítačová grafika, vrátane vedeckej, umožňuje graficky spracovávať výsledky, vytvárať diagramy, grafy, kresby a tiež vykonávať rôzne druhy virtuálnych experimentov.

Pomocou konštruktívnej grafiky vznikajú technické produkty. Existujú aj iné typy počítačovej grafiky:

  • animácia;
  • multimédiá;
  • umelecký;
  • reklama;
  • ilustratívny.

Z technického hľadiska sú počítačová grafika dvojrozmerné a trojrozmerné obrázky.

CPU a GPU: rozdiel

Aký je rozdiel medzi týmito dvoma označeniami? Mnohí používatelia si uvedomujú, že grafický procesor (ktorý je popísaný vyššie) a grafická karta vykonávajú rôzne úlohy. Okrem toho sa líšia svojou vnútornou štruktúrou. CPU aj GPU - ktoré majú veľa podobných funkcií, ale sú vyrobené na rôzne účely.

CPU vykoná určitý reťazec inštrukcií v krátkom čase. Je robený tak, že tvorí niekoľko reťazcov súčasne, rozdeľuje tok inštrukcií do mnohých, vykonáva ich a potom ich v určitom poradí opäť spája do jedného celku. Inštrukcia vo vlákne je závislá od tých, ktoré ju nasledujú, takže CPU obsahuje malý počet vykonávacích jednotiek, tu je hlavná priorita daná rýchlosti vykonávania, čím sa skracuje doba nečinnosti. To všetko sa dosahuje pomocou potrubia a vyrovnávacej pamäte.

GPU má ďalšiu dôležitú funkciu – vykresľovanie vizuálnych efektov a 3D grafiky. Funguje to jednoduchšie: na vstupe prijíma polygóny, vykonáva potrebné logické a matematické operácie a na výstupe vydáva súradnice pixelov. Úlohou GPU je zvládnuť veľký prúd rôznych úloh. Jeho zvláštnosťou je, že je vybavený veľkou, ale pomalou prácou v porovnaní s CPU. Okrem toho je v moderných GPU viac ako 2000 vykonávacích jednotiek. Líšia sa od seba metódami prístupu k pamäti. Napríklad grafická karta nepotrebuje veľkú vyrovnávaciu pamäť. GPU má väčšiu šírku pásma. Jednoducho povedané, CPU sa rozhoduje v súlade s úlohami programu a GPU vykonáva veľa rovnakých výpočtov.

Získal možnosť monitorovať údaje o výkone grafických procesorov (GPU). Používatelia môžu tieto informácie analyzovať, aby pochopili, ako sa využívajú zdroje grafickej karty, ktoré sa čoraz viac využívajú vo výpočtovej technike.

To znamená, že všetky GPU nainštalované v počítači sa zobrazia na karte Výkon. Okrem toho na karte Procesy môžete vidieť, ktoré procesy pristupujú ku GPU, a údaje o využití pamäte GPU sú umiestnené na karte Podrobnosti.

Ako skontrolovať, či je podporovaný prehliadač výkonu GPU

Zatiaľ čo Správca úloh nemá špecifické požiadavky na monitorovanie CPU, pamäte, disku alebo sieťových adaptérov, situácia s GPU je trochu iná.

V systéme Windows 10 sú informácie o GPU dostupné iba v Správcovi úloh pri použití architektúry Windows Display Driver Model (WDDM). WDDM je architektúra grafického ovládača pre grafickú kartu, ktorá umožňuje vykresľovanie pracovnej plochy a aplikácií na obrazovke.

WDDM poskytuje grafické jadro, ktoré obsahuje plánovač (VidSch) a správcu videopamäte (VidMm). Práve tieto moduly sú zodpovedné za rozhodovanie pri využívaní prostriedkov GPU.

Správca úloh dostáva informácie o využití zdrojov GPU priamo z plánovača a správcu videopamäte GPU. Navyše to platí ako v prípade integrovaných, tak aj v prípade dedikovaných grafických procesorov. Táto funkcia vyžaduje na správne fungovanie WDDM verzie 2.0 alebo vyššej.

Ak chcete skontrolovať, či vaše zariadenie podporuje zobrazovanie údajov GPU v Správcovi úloh, postupujte takto:

  1. Pomocou klávesovej skratky Windows + R otvorte príkaz Spustiť.
  2. Zadajte príkaz dxdiag.exe otvorte diagnostický nástroj DirectX a stlačte kláves Enter.
  3. Prejdite na kartu "Obrazovka".
  4. V pravej časti „Ovládače“ sa pozrite na hodnotu modelu ovládača.

Ak používate WDDM 2.0 alebo vyšší, Správca úloh zobrazí údaje o využití GPU na karte Výkon.

Ako monitorovať výkon GPU pomocou Správcu úloh

Ak chcete sledovať údaje o výkone GPU pomocou Správcu úloh, jednoducho kliknite pravým tlačidlom myši na panel úloh a vyberte Správca úloh. Ak je aktívne kompaktné zobrazenie, kliknite na tlačidlo Viac podrobností a potom kliknite na kartu Výkon.

Poradenstvo: na rýchle spustenie Správcu úloh môžete použiť klávesovú skratku Ctrl + Shift + Esc

Karta Výkon

Ak váš počítač podporuje WDDM verzie 2.0 alebo novšej, potom na ľavej table karty Výkon zobrazí sa váš GPU. V prípade, že je v systéme nainštalovaných viacero GPU, každý sa zobrazí s číslom zodpovedajúcim jeho fyzickému umiestneniu, napríklad GPU 0, GPU 1, GPU 2 atď.

Windows 10 podporuje multi-GPU balíky využívajúce režimy Nvidia SLI a AMD Crossfire. Keď sa v systéme nájde jedna z týchto konfigurácií, na karte Výkon sa zobrazí zoznam každého odkazu pomocou čísla (napr. Odkaz 0, Odkaz 1 atď.). Používateľ bude môcť vidieť a kontrolovať každý GPU v rámci balíka.

Na konkrétnej stránke GPU nájdete súhrnné údaje o výkone, ktoré sú vo všeobecnosti rozdelené do dvoch sekcií.

Sekcia obsahuje aktuálne informácie o motoroch samotného GPU a nie o jeho jednotlivých jadrách.

Predvolený správca úloh zobrazuje štyri najžiadanejšie GPU motory, ktoré štandardne zahŕňajú 3D, kopírovanie, dekódovanie videa a spracovanie videa, ale tieto zobrazenia môžete zmeniť kliknutím na názov a výberom iného motora.

Používateľ môže dokonca zmeniť zobrazenie grafu na jeden stroj kliknutím pravým tlačidlom myši kdekoľvek v sekcii a výberom možnosti „Zmeniť graf > Jedno jadro“.

Pod grafikou motorov je blok údajov o spotrebe video pamäte.

Správca úloh zobrazuje dva typy video pamäte: zdieľanú a vyhradenú.

Vyhradená pamäť je pamäť, ktorú bude využívať iba grafická karta. Zvyčajne ide o množstvo VRAM na diskrétnych kartách alebo množstvo pamäte dostupnej pre procesor, na ktorom je počítač nakonfigurovaný na explicitnú redundanciu.

V pravom dolnom rohu sa zobrazí možnosť „Hardware Reserved Memory“ – toto množstvo pamäte je vyhradené pre ovládač videa.

Množstvo pridelenej pamäte v tejto časti predstavuje množstvo pamäte aktívne využívanej procesmi a množstvo zdieľanej pamäte v tejto časti predstavuje množstvo systémovej pamäte spotrebovanej pre potreby grafiky.

Navyše v ľavom paneli pod názvom GPU uvidíte aktuálne percento využitia GPU. Je dôležité poznamenať, že Správca úloh používa percento najviac zaťaženého motora na vyjadrenie celkového využitia.

Ak chcete zobraziť údaje o výkone v priebehu času, spustite aplikáciu, ktorá intenzívne využíva GPU, napríklad videohru.

Karta Procesy

Na karte môžete sledovať aj výkon GPU Procesy. V tejto časti nájdete zhrnutie konkrétneho procesu.

Stĺpec „GPU“ zobrazuje využitie najaktívnejšieho stroja, ktoré predstavuje celkové využitie zdrojov GPU konkrétnym procesom.

Ak však viacero motorov hlási 100-percentné využitie, môže dôjsť k zámene. Ďalší stĺpec „Jadro GPU“ poskytuje podrobné informácie o motore zaťaženom týmto procesom.

Záhlavie stĺpca na karte Procesy zobrazuje celkovú spotrebu zdrojov všetkých GPU dostupných v systéme.

Ak tieto stĺpce nevidíte, kliknite pravým tlačidlom myši na hlavičku ľubovoľného stĺpca a začiarknite príslušné políčka.

Podrobnosti karty

V predvolenom nastavení sa na karte nezobrazujú informácie o GPU, ale vždy môžete kliknúť pravým tlačidlom myši na hlavičku stĺpca, vybrať možnosť „Vybrať stĺpce“ a povoliť nasledujúce možnosti:

  • GPU jadro
  • Vyhradená pamäť GPU
  • Zdieľaná pamäť GPU

Karty pamäte zobrazujú celkové a pridelené množstvo pamäte, ktoré používa konkrétny proces. Stĺpce GPU a GPU Core zobrazujú rovnaké informácie ako na karte Procesy.

Keď používate kartu Podrobnosti, musíte si uvedomiť, že pridanie použitej pamäte každým procesom môže byť väčšie ako celková dostupná pamäť, pretože celková pamäť sa započíta viackrát. Tieto informácie sú užitočné na pochopenie využitia pamäte procesom, ale na zobrazenie presnejších informácií o využití grafiky by ste mali použiť kartu Výkon.

Výkon

Spoločnosť Microsoft sa zaviazala poskytnúť používateľom presnejší nástroj na hodnotenie grafického výkonu ako aplikácie tretích strán. Upozorňujeme, že práce na tejto funkcii pokračujú a v blízkej budúcnosti sú možné vylepšenia.

Pekný deň všetkým, moji milí priatelia a hostia môjho blogu. Dnes by som rád povedal niečo o hardvéri našich počítačov. Prosím, povedzte mi, počuli ste o niečom takom ako GPU? Ukazuje sa, že mnohí ľudia počujú takúto skratku prvýkrát.

Nech to znie akokoľvek banálne, ale dnes žijeme v dobe výpočtovej techniky a niekedy je ťažké nájsť človeka, ktorý netuší, ako počítač funguje. Niekomu teda napríklad stačí, aby si uvedomil, že počítač funguje vďaka centrálnej procesorovej jednotke (CPU).

Niekto pôjde ďalej a zistí, že existuje aj isté GPU. Taká zložitá skratka, ale podobná tej predchádzajúcej. Poďme teda zistiť, čo je GPU v počítači, čo sú a aké sú rozdiely s CPU.

Nie je to veľký rozdiel

Jednoducho povedané, GPU je jednotka na spracovanie grafiky, niekedy sa nazýva grafická karta, čo je čiastočne chyba. Grafická karta je hotové komponentné zariadenie, ktoré obsahuje procesor, ktorý popisujeme. Je schopný spracovávať príkazy na generovanie 3D grafiky. Stojí za zmienku, že je to kľúčový prvok, rýchlosť a rôzne možnosti videosystému ako celku závisia od jeho výkonu.

GPU má svoje vlastné charakteristické vlastnosti v porovnaní s ostatnými CPU. Hlavný rozdiel spočíva v architektúre, na ktorej je postavený. Architektúra GPU je postavená tak, že umožňuje efektívnejšie spracovávať veľké množstvo dát. CPU zas spracováva dáta a úlohy postupne. Prirodzene, túto vlastnosť netreba brať ako mínus.

Typy GPU

Typov GPU nie je veľa, jeden z nich sa označuje ako diskrétny a používa sa na samostatných moduloch. Takýto čip je pomerne výkonný, takže vyžaduje chladiaci systém radiátorov, chladičov, kvapalinové chladenie je možné použiť v obzvlášť zaťažených systémoch.

Dnes môžeme pozorovať významný krok vo vývoji grafických komponentov, je to spôsobené vznikom veľkého množstva typov GPU. Ak predtým musel byť akýkoľvek počítač vybavený diskrétnou grafikou, aby mal prístup k hrám alebo iným grafickým aplikáciám, teraz môže takúto úlohu vykonávať IGP - integrovaný grafický procesor.

Integrovaná grafika sa dnes dodáva takmer s každým počítačom (s výnimkou serverov), či už ide o notebook alebo stolný počítač. Samotný videoprocesor je zabudovaný v CPU, čo môže výrazne znížiť spotrebu a cenu samotného zariadenia. Okrem toho môže byť takáto grafika v iných poddruhoch, napríklad: diskrétna alebo hybridno-diskrétna.

Prvá možnosť predpokladá najdrahšie riešenie, kabeláž na základnej doske alebo samostatný mobilný modul. Druhá možnosť sa z nejakého dôvodu nazýva hybridná, v skutočnosti využíva malú video pamäť, ktorá je prispájkovaná na doske, no zároveň ju dokáže rozšíriť pomocou RAM.

Prirodzene, takéto grafické riešenia sa nemôžu rovnať plnohodnotným diskrétnym grafickým kartám, ale aj teraz vykazujú celkom dobrý výkon. Každopádne, vývojári sa majú o čo snažiť, azda v takomto rozhodnutí je budúcnosť.

No a to je asi tak všetko, čo mám. Dúfam, že sa vám článok páčil! Teším sa na vás opäť na mojom blogu. Veľa šťastia. Čau Čau!

V roku 2016 sa konečne naplnili nádeje na plnohodnotnú generačnú výmenu GPU, ktorú predtým brzdil nedostatok výrobných kapacít potrebných na výrobu čipov s výrazne vyššou hustotou tranzistorov a taktovaním, než umožňovala osvedčená 28 nm procesná technológia. 20nm technológia, v ktorú sme dúfali pred dvoma rokmi, sa ukázala byť komerčne nerentabilná pre čipy veľké ako samostatné GPU. Pretože TSMC a Samsung, ktorí mohli byť zmluvnými partnermi pre AMD a NVIDIA, nepoužili FinFET pri 20nm, potenciálne zvýšenie výkonu na watt nad 28nm bolo také, že obe spoločnosti radšej počkali na bežné prijatie 14/16nm noriem, už pomocou FinFET.

Roky únavného čakania však prešli a teraz môžeme zhodnotiť, ako sa výrobcovia GPU zbavili možností aktualizovaného technického procesu. Ako prax opäť ukázala, „nanometre“ samy o sebe nezaručujú vysokú energetickú účinnosť čipu, takže nové architektúry NVIDIA a AMD sa v tomto parametri ukázali ako veľmi odlišné. A ďalšiu zákernosť priniesol fakt, že firmy už nevyužívajú služby jednej fabriky (TSMC), ako tomu bolo v minulých rokoch. AMD si vybralo GlobalFoundries na výrobu GPU Polaris založených na 14nm FinFET technológii. NVIDIA, na druhej strane, stále spolupracuje s TSMC, ktorá má 16nm FinFET proces, na všetkých čipoch Pascal okrem low-endu GP107 (ktorý vyrába Samsung). Práve 14nm FinFET linka od Samsungu bola kedysi licencovaná GlobalFoundries, takže GP107 a jeho rival Polaris 11 nám poskytujú pohodlnú príležitosť porovnať inžinierske úspechy AMD a NVIDIA na podobnej výrobnej základni.

Nebudeme sa však predčasne vrhať do technických detailov. Vo všeobecnosti sú návrhy oboch spoločností založené na GPU novej generácie nasledovné. NVIDIA vytvorila kompletný rad akcelerátorov architektúry Pascal založených na troch GPU spotrebiteľskej triedy – GP107, GP106 a GP104. Miesto vlajkového adaptéra, ktorý pravdepodobne ponesie názov GeForce GTX 1080 Ti, je však už voľné. Kandidátom na túto pozíciu je karta s procesorom GP102, ktorá je zatiaľ použitá iba v „prosumerickom“ akcelerátore NVIDIA TITAN X. Výpočtové akcelerátory Tesla.

Doterajší úspech AMD je skromnejší. Vydané boli dva procesory rodiny Polaris, na základe ktorých produkty patria do nižšej a strednej kategórie herných grafických kariet. Horné priečky obsadí pripravovaná rodina GPU Vega, od ktorej sa očakáva komplexne upgradovaná architektúra GCN (pričom Polaris sa z tohto pohľadu až tak nelíši od 28nm čipov Fiji a Tonga).

NVIDIA Tesla P100 a nový TITAN X

Vďaka úsiliu Jensena Huanga, stáleho šéfa NVIDIA, sa spoločnosť už stavia ako výrobca univerzálnych výpočtových procesorov nie menej ako výrobca herných GPU. Signálom, že NVIDIA berie superpočítačový biznis vážnejšie ako kedykoľvek predtým, bolo rozdelenie radu GPU Pascal na herné pozície na jednej strane a výpočtové pozície na strane druhej.

Po spustení 16nm FinFET procesu v TSMC vložila NVIDIA prvé úsilie do superpočítačového čipu GP100, ktorý debutoval pred spotrebným produktovým radom Pascal.

GP100 obsahuje bezprecedentný počet tranzistorov (15,3 miliardy) a shader ALU (3840 CUDA jadier). Je to tiež prvý urýchľovač vybavený pamäťou HBM2 (16 GB) kombinovanou s GPU na báze kremíka. GP100 sa používa ako súčasť akcelerátorov Tesla P100, pôvodne obmedzených na superpočítače kvôli špeciálnemu tvarovému faktoru so zbernicou NVLINK, ale neskôr NVIDIA vydala Tesla P100 v štandardnom formáte rozširujúcej dosky PCI Express.

Spočiatku odborníci predpokladali, že P100 sa môže objaviť v herných grafických kartách. NVIDIA túto možnosť zjavne nepoprela, pretože čip má plnohodnotné potrubie na vykresľovanie 3D grafiky. Teraz je však jasné, že je nepravdepodobné, že by to niekedy prekročilo výpočtovú niku. Pre grafiku má NVIDIA sesterský produkt, GP102, ktorý má rovnakú sadu shaderov ALU, mapovačov textúr a ROP ako GP100, ale chýba mu balast veľkého počtu 64-bitových CUDA jadier, nehovoriac o iných architektonických zmeny (menej plánovačov, skrátená vyrovnávacia pamäť L2 atď.). Výsledkom je kompaktnejšie (12 miliárd tranzistorov) jadro, ktoré spolu s opustením pamäte HBM2 v prospech GDDR5X umožnilo spoločnosti NVIDIA rozšíriť GP102 na širší trh.

Teraz je GP102 vyhradená pre prosumer akcelerátor TITAN X (nezamieňať s GeForce GTX TITAN X založenom na čipe architektúry Maxwell GM200), ktorý je umiestnený ako doska pre výpočty so zníženou presnosťou (v rozsahu od 8 do 32 bitov, medzi ktorými sú 8 a 16 obľúbené hlboké školenia spoločnosti NVIDIA) ešte viac ako v prípade hier, hoci bohatí hráči si môžu kúpiť grafickú kartu za 1 200 USD. V našich herných testoch skutočne TITAN X neodôvodňuje svoju cenu 15 až 20-percentnou výhodou cez GeForce GTX 1080, ale príde na pomoc pretaktovanie. Ak porovnáme pretaktované GTX 1080 a TITAN X, tak ten druhý bude už o 34 % rýchlejší. Nová herná vlajková loď založená na GP102 však bude mať s najväčšou pravdepodobnosťou menej aktívnych výpočtových jednotiek alebo stratí podporu pre akékoľvek výpočtové funkcie (alebo oboje).

Celkovo vzaté, uvoľnenie masívnych GPU ako GP100 a GP102 na začiatku 16nm FinFET procesu je pre NVIDIA veľkým úspechom, najmä vzhľadom na výzvy, ktorým spoločnosť čelila počas 40nm a 28nm obdobia.

NVIDIA GeForce GTX 1070 a 1080

NVIDIA uviedla na trh svoj rad herných akcelerátorov GeForce 10 v zvyčajnom poradí – od najvýkonnejších modelov až po tie lacnejšie. GeForce GTX 1080 a ďalšie herné karty s architektúrou Pascal, ktoré boli odvtedy vydané, najjasnejšie ukazujú, že NVIDIA naplno využila 14/16nm FinFET proces, aby čipy boli hustejšie a energeticky efektívnejšie.

Navyše, vytvorením Pascalu NVIDIA nielen zvýšila výkon v rôznych výpočtových úlohách (ako ukázal príklad GP100 a GP102), ale tiež doplnila architektúru čipu Maxwell o funkcie, ktoré optimalizujú vykresľovanie grafiky.

Stručne si všimnite hlavné inovácie:

  • vylepšená kompresia farieb s pomermi až 8:1;
  • funkcia Simultaneous Multi-Projection PolyMorph Engine, ktorá umožňuje vytvoriť až 16 projekcií geometrie scény v jednom prechode (pre VR a systémy s viacerými displejmi v konfigurácii NVIDIA Surround);
  • schopnosť prerušiť (preempcia) v procese vykonávania volania draw (počas vykresľovania) a prúdu príkazov (počas výpočtov), ​​čo spolu s dynamickou alokáciou výpočtových zdrojov GPU poskytuje plnú podporu pre asynchrónne výpočty (Async Compute ) – ďalší zdroj výkonu v hrách pod rozhraním DirectX 12 API a znížená latencia vo VR.

Posledný bod je obzvlášť zaujímavý, pretože čipy Maxwell boli technicky kompatibilné s asynchrónnym výpočtom (súčasná práca s výpočtovými a grafickými frontami príkazov), ale výkon v tomto režime zostával veľmi málo požadovaný. Asynchrónne výpočty v Pascale fungujú podľa očakávania, čo umožňuje efektívnejšie načítanie GPU v hrách so samostatným vláknom na výpočty fyziky (hoci, pravdaže, pre čipy NVIDIA nie je problém s plným načítaním shader ALU taký akútny ako pri AMD GPU).

Procesor GP104 použitý v GTX 1070 a GTX 1080 je nástupcom GM204 (druhý čip v rodine Maxwell), ale NVIDIA dosiahla také vysoké taktovanie, že GTX 1080 prekonáva GTX TITAN X (založené na väčšie GPU) v priemere o 29 %, a to všetko v rámci konzervatívnejšieho tepelného balíka (180 vs. 250 wattov). Dokonca aj GTX 1070, ktorá je viac krájaná ako GTX 970 bola krájaná v porovnaní s GTX 980 (a GTX 1070 používa GDDR5 namiesto GDDR5X v GTX 1080), je stále o 5% rýchlejšia ako GTX TITAN. X.

NVIDIA aktualizovala ovládač displeja v jazyku Pascal, ktorý je teraz kompatibilný s rozhraniami DisplayPort 1.3 / 1.4 a HDMI 2.b, čo znamená, že umožňuje výstup obrazu s vyšším rozlíšením alebo obnovovacou frekvenciou cez jediný kábel - až 5K pri 60 Hz alebo 4K pri 120 Hz. 10/12-bitová farebná reprezentácia poskytuje podporu pre dynamický rozsah (HDR) na niekoľkých obrazovkách, ktoré túto možnosť ešte majú. Vyhradený hardvérový blok Pascal je schopný kódovať a dekódovať video HEVC (H.265) v rozlíšení až 4K, 10-bitových farbách (12-bitové dekódovanie) a 60 Hz.

Nakoniec Pascal odstránil obmedzenia predchádzajúcej verzie zbernice SLI. Vývojári zvýšili frekvenciu rozhrania a vydali nový dvojkanálový most.

Viac o týchto funkciách architektúry Pascal si môžete prečítať v našej recenzii GeForce GTX 1080. Pred prechodom na ďalšie novinky uplynulého roka však stojí za zmienku, že v 10. rade GeForce NVIDIA po prvýkrát vydá referenčné dizajnové karty na celú životnosť zodpovedajúcich modelov. Teraz sa nazývajú Founders Edition a predávajú sa za viac, ako je odporúčaná maloobchodná cena pre partnerské karty. Napríklad GTX 1070 a GTX 1080 majú odporúčané ceny 379 a 599 USD (už v mladosti vyššie ako GTX 970 a GTX 980), zatiaľ čo edície Founders majú cenu 449 USD a 699 USD.

GeForce GTX 1050 a1060

Čip GP106 rozšíril architektúru Pascal do bežného segmentu herných akcelerátorov. Funkčne sa nelíši od starších modelov a počtom výpočtových jednotiek je polovičný oproti GP104. Je pravda, že GP106 na rozdiel od GM206 (ktorá bola polovica GM204) používa 192-bitovú pamäťovú zbernicu. Okrem toho NVIDIA odstránila SLI konektory z dosky GTX 1060, čím rozčúlila fanúšikov postupného upgradu video subsystému: keď tento urýchľovač vyčerpá svoje možnosti, už k nemu nemôžete pridať druhú grafickú kartu (okrem hier s DirectX 12 ktoré vám umožňujú rozdeliť záťaž medzi GPU obchádzajúce ovládače).

GTX 1060 bola pôvodne vybavená 6 GB GDDR5, plne funkčným čipom GP106, a začala sa predávať za 249/299 $ (partnerské karty, respektíve Founders Edition). Potom však NVIDIA vydala grafickú kartu s 3 GB pamäte a odporúčanou cenou 199 dolárov, čo tiež znížilo počet výpočtových jednotiek. Obe grafické karty majú atraktívne TDP 120 W a rýchlosťou sú na tom podobne ako GeForce GTX 970 a GTX 980.

GeForce GTX 1050 a GTX 1050 Ti patria do najnižšej kategórie, ktorú ovláda architektúra Pascal. Ale bez ohľadu na to, ako skromne môžu vyzerať na pozadí starších bratov, NVIDIA urobila najväčší krok vpred v oblasti rozpočtu. GTX 750/750 Ti, ktoré ho predtým obsadili, patria do prvej iterácie architektúry Maxwell, takže GTX 1050/1050 Ti, na rozdiel od iných urýchľovačov v rodine Pascal, pokročili nie o jednu, ale o jeden a pol generácie. Vďaka výrazne väčšiemu GPU a pamäti bežiacej na vyšších frekvenciách GTX 1050/1050 Ti zvýšili výkon oproti svojim predchodcom viac ako ktorákoľvek iná séria Pascal (90% rozdiel medzi GTX 750 Ti a GTX 1050 Ti).

Aj keď GTX 1050/1050 Ti využívajú o niečo viac energie (75 W oproti 60 W), stále spadajú do výkonového rozsahu karty PCI Express bez pomocného napájacieho konektora. NVIDIA neuvoľnila juniorské akcelerátory vo formáte Founders Edition a odporúčané maloobchodné ceny boli 109 $ a 139 $.

AMD Polaris: Radeon RX 460/470/480

Reakciou AMD na Pascal bola rodina čipov Polaris. Línia Polaris teraz obsahuje iba dva čipy, na základe ktorých AMD vyrába tri grafické karty (Radeon RX 460, RX 470 a RX 480), v ktorých sa množstvo vnútornej pamäte RAM navyše mení. Ako môžete ľahko vidieť aj z čísel modelov, Radeon radu 400 nechal hornú vrstvu výkonu neobsadený. AMD ho bude musieť naplniť produktmi na báze kremíka Vega. Ešte v ére 28 nm si AMD osvojilo zvyk testovať inovácie na relatívne malých čipoch a až potom ich implementovať do vlajkových GPU.

Hneď je potrebné poznamenať, že v prípade AMD nie je nová rodina grafických procesorov identická s novou verziou základnej architektúry GCN (Graphics Core Next), ale odráža kombináciu architektúry a ďalších funkcií produktu. Pre GPU postavené podľa novej výrobnej technológie AMD opustilo rôzne „ostrovy“ v kódovom názve (Severné ostrovy, Južné ostrovy atď.) a označuje ich názvami hviezd.

Napriek tomu sa architektúra GCN v Polaris dočkala ďalšej, v poradí už tretej aktualizácie, vďaka ktorej (spolu s prechodom na 14nm FinFET proces) AMD výrazne zvýšilo výkon na watt.

  • Compute Unit, elementárna forma organizácie shader ALU v GCN, prešla množstvom zmien súvisiacich s prefetchingom a cachovaním inštrukcií, L2 cache prístupmi, ktoré spolu zvýšili špecifický výkon CU o 15%.
  • Existuje podpora pre výpočty s polovičnou presnosťou (FP16), ktoré sa používajú v programoch počítačového videnia a strojového učenia.
  • GCN 1.3 poskytuje priamy prístup k internej inštrukčnej sade (ISA) stream procesorov, vďaka čomu môžu vývojári písať najviac "nízkoúrovňový" a rýchly kód - na rozdiel od DirectX a OpenGL shader jazykov, abstrahovaných od hardvéru.
  • Geometrické procesory sú teraz schopné vylúčiť polygóny nulovej veľkosti alebo polygóny, ktoré nemajú žiadne projekčné pixely na začiatku procesu a majú indexovú vyrovnávaciu pamäť, ktorá znižuje spotrebu zdrojov pri vykresľovaní malej duplicitnej geometrie.
  • Dvojitá vyrovnávacia pamäť L2.

Okrem toho inžinieri AMD vynaložili veľké úsilie na to, aby Polaris bežal na najvyššej možnej frekvencii. Frekvencia GPU je teraz riadená s minimálnou latenciou (latencia je menšia ako 1 ns) a karta upravuje krivku napätia pri každom štarte PC tak, aby zohľadňovala odchýlky parametrov medzi jednotlivými čipmi a starnutie kremíka počas prevádzky.

Prechod na 14nm FinFET však nebol pre AMD hladký. Spoločnosť skutočne dokázala zvýšiť výkon na watt o 62 % (súdiac podľa výsledkov Radeon RX 480 a Radeon R9 380X v herných testoch a štítku TDP kariet). Maximálne frekvencie Polarisu však nepresahujú 1266 MHz a len niekoľko výrobných partnerov dosiahlo viac dodatočnými prácami na chladiacich a napájacích systémoch. Na druhej strane, grafické karty GeForce si stále držia prvenstvo v pomere rýchlosti k výkonu, ktorý NVIDIA dosiahla už v generácii Maxwell. Zdá sa, že AMD v prvej fáze nedokázalo odhaliť všetky možnosti procesnej technológie novej generácie alebo samotná architektúra GCN už vyžaduje hlbokú modernizáciu - posledná úloha zostala na čipoch Vega.

Akcelerátory založené na Polaris zaberajú cenové rozpätie od 109 do 239 dolárov (pozri tabuľku), hoci v reakcii na objavenie sa GeForce GTX 1050/1050 Ti AMD znížilo ceny dvoch nižších kariet na 100 a 170 dolárov. V súčasnosti je medzi konkurenčnými produktmi v každej kategórii cena/výkon podobný pomer síl: GeForce GTX 1050 Ti je rýchlejšia ako Radeon RX 460 so 4 GB RAM, GTX 1060 s 3 GB pamäte je rýchlejšia ako RX 470 a plnohodnotná GTX 1060 je pred RX 480. Grafické karty AMD sú zároveň lacnejšie, čo znamená, že sú populárne.

AMD Radeon Pro Duo

Správa za uplynulý rok na poli diskrétnych GPU nebude úplná, ak si odmyslíme ešte jednu z „červených“ grafických kariet. Zatiaľ čo AMD ešte nevydalo vlajkovú loď, ktorá by nahradila Radeon R9 Fury X vlajkovou loďou s jedným GPU, spoločnosti zostáva jeden osvedčený krok, aby pokračovala v dobývaní nových hraníc – inštalácia dvoch čipov Fiji na jednu dosku. Táto karta, ktorej vydanie AMD opakovane odložilo, sa však objavila v predaji krátko pred GeForce GTX 1080, ale spadala do kategórie profesionálnych akcelerátorov Radeon Pro a bola umiestnená ako platforma na vytváranie hier v prostredí VR.

Pre hráčov za cenu 1 499 dolárov (drahšie ako pár Radeon R9 Fury X pri uvedení na trh) nie je Radeon Pro Duo možnosťou a ani sme ho nemali možnosť otestovať. Je to škoda, pretože z technického hľadiska vyzerá Radeon Pro Duo pútavo. Pasové TDP karty sa v porovnaní s Fury X zvýšilo len o 27 %, a to aj napriek tomu, že AMD znížilo špičkové frekvencie procesorov AMD o 50 MHz. V minulosti sa AMD už podarilo vydať úspešnú dvojprocesorovú grafickú kartu - Radeon R9 295X2, takže špecifikácie oznámené výrobcom nespôsobujú veľkú skepsu.

Čo očakávať v roku 2017

Hlavné očakávania na budúci rok súvisia s AMD. NVIDIA sa pravdepodobne obmedzí na vydanie vlajkovej lode hernej karty založenej na GP102 s názvom GeForce GTX 1080 Ti a možno zaplní ďalšie voľné miesto v sérii GeForce 10 s GTX 1060 Ti. V opačnom prípade sa už vytvoril rad akcelerátorov Pascal a debut ďalšej architektúry, Volta, je naplánovaný až na rok 2018.

Rovnako ako v oblasti CPU, aj AMD zameralo svoje úsilie na vývoj skutočne prelomovej mikroarchitektúry GPU, zatiaľ čo Polaris sa stal len zastávkou na ceste k druhej. Pravdepodobne už v prvom štvrťroku 2017 spoločnosť po prvýkrát uvedie na masový trh svoj najlepší kremík Vega 10 (a s ním alebo následne jeden alebo viac juniorských čipov v rade). Najspoľahlivejším dôkazom jeho schopností bolo ohlásenie výpočtovej karty MI25 v rade Radeon Instinct, ktorá je umiestnená ako akcelerátor úloh hlbokého učenia. Podľa špecifikácií nie je založená na ničom menšom ako Vega 10. Karta vyvíja 12,5 TFLOPS výpočtového výkonu vo výpočtoch s jednou presnosťou (FP32) - viac ako TITAN X na GP102 - a je vybavená 16 GB pamäte HBM2. TDP grafickej karty je do 300 wattov. O skutočnej rýchlosti procesora možno len hádať, no je známe, že Vega prinesie najmasívnejšiu aktualizáciu mikroarchitektúry GPU od vydania prvých čipov založených na GCN pred piatimi rokmi. Ten výrazne zlepší výkon na watt a umožní efektívnejšie využitie výpočtového výkonu shader ALU (v ktorých čipy AMD tradične chýbajú) v herných aplikáciách.

Hovorí sa tiež, že inžinieri AMD teraz zvládli 14nm FinFET proces na výbornú a spoločnosť je pripravená vydať druhú verziu grafických kariet Polaris s výrazne nižším TDP. Zdá sa nám, že ak je to pravda, aktualizované čipy pôjdu skôr do radu Radeon RX 500, než aby dostali zvýšené indexy v existujúcej sérii 400.

Dodatok. Aktuálne rady diskrétnych grafických adaptérov AMD a NVIDIA

Výrobca AMD
Model Radeon RX 460 Radeon RX 470 Radeon RX 480 Radeon R9 Nano Radeon R9 Fury Radeon R9 Fury X
GPU
názov Polárka 11 Polárka 10 Polárka 10 Fidži xt Fidži PRO Fidži xt
mikroarchitektúra GCN 1.3 GCN 1.3 GCN 1.3 GCN 1.2 GCN 1.2 GCN 1.2
Procesná technológia, nm 14nm FinFET 14nm FinFET 14nm FinFET 28 28 28
Počet tranzistorov, milión 3 000 5 700 5 700 8900 8900 8900
1 090 / 1 200 926 / 1 206 1 120 / 1 266 — / 1 000 — / 1 000 — / 1 050
Počet ALU shadera 896 2 048 2 304 4096 3584 4096
56 128 144 256 224 256
Počet ROP 16 32 32 64 64 64
RAM
Šírka autobusu, bit 128 256 256 4096 4096 4096
Typ čipu GDDR5 SDRAM GDDR5 SDRAM GDDR5 SDRAM HBM HBM HBM
1 750 (7 000) 1 650 (6 600) 1 750 (7 000) / 2 000 (8 000) 500 (1000) 500 (1000) 500 (1000)
Objem, MB 2 048 / 4 096 4 096 4 096 / 8 192 4096 4096 4096
I/O zbernica PCI Express 3.0 x8 PCI Express 3.0 x16 PCI Express 3.0 x16 PCI Express 3.0 x16 PCI Express 3.0 x16 PCI Express 3.0 x16
Výkon
2 150 4 940 5 834 8 192 7 168 8 602
Výkon FP32/FP64 1/16 1/16 1/16 1/16 1/16 1/16
112 211 196/224 512 512 512
Obrazový výstup
DL DVI-D, HDMI 2.0b, DisplayPort 1.3/1.4 DL DVI-D, HDMI 2.0b, DisplayPort 1.3/1.4 HDMI 1.4a, DisplayPort 1.2 HDMI 1.4a, DisplayPort 1.2 HDMI 1.4a, DisplayPort 1.2
TDP, W <75 120 150 175 275 275
109/139 179 199/229 649 549 649
8 299 / 10 299 15 999 16 310 / 18 970 ND ND ND
Výrobca NVIDIA
Model GeForce GTX 1050 GeForce GTX 1050 Ti GeForce GTX 1060 3 GB GeForce GTX 1060 GeForce GTX 1070 GeForce GTX 1080 TITAN X
GPU
názov GP107 GP107 GP106 GP106 GP104 GP104 GP102
mikroarchitektúra Pascal Pascal Maxwell Maxwell Pascal Pascal Pascal
Procesná technológia, nm 14nm FinFET 14nm FinFET 16nm FinFET 16nm FinFET 16nm FinFET 16nm FinFET 16nm FinFET
Počet tranzistorov, milión 3 300 3 300 4 400 4 400 7 200 7 200 12 000
Frekvencia hodín, MHz: Základné hodiny / Boost Clock 1 354 / 1 455 1 290 / 1 392 1506/1708 1506/1708 1 506 / 1 683 1 607 / 1 733 1 417 / 1531
Počet ALU shadera 640 768 1 152 1 280 1 920 2 560 3 584
Počet prekrytí textúr 40 48 72 80 120 160 224
Počet ROP 32 32 48 48 64 64 96
RAM
Šírka autobusu, bit 128 128 192 192 256 256 384
Typ čipu GDDR5 SDRAM GDDR5 SDRAM GDDR5 SDRAM GDDR5 SDRAM GDDR5 SDRAM GDDR5X SDRAM GDDR5X SDRAM
Frekvencia hodín, MHz (šírka pásma na kontakt, Mbps) 1 750 (7 000) 1 750 (7 000) 2000 (8000) 2000 (8000) 2000 (8000) 1 250 (10 000) 1 250 (10 000)
Objem, MB 2 048 4 096 6 144 6 144 8 192 8 192 12 288
I/O zbernica PCI Express 3.0 x16 PCI Express 3.0 x16 PCI Express 3.0 x16 PCI Express 3.0 x16 PCI Express 3.0 x16 PCI Express 3.0 x16 PCI Express 3.0 x16
Výkon
Špičkový výkon FP32, GFLOPS (na základe maximálnej špecifikovanej frekvencie) 1 862 2 138 3 935 4 373 6 463 8 873 10 974
Výkon FP32/FP64 1/32 1/32 1/32 1/32 1/32 1/32 1/32
Šírka pásma RAM, GB/s 112 112 192 192 256 320 480
Obrazový výstup
Rozhrania pre výstup obrazu DL DVI-D, DisplayPort 1.3/1.4, HDMI 2.0b DL DVI-D, DisplayPort 1.3/1.4, HDMI 2.0b DL DVI-D, DisplayPort 1.3/1.4, HDMI 2.0b DL DVI-D, DisplayPort 1.3/1.4, HDMI 2.0b DL DVI-D, DisplayPort 1.3/1.4, HDMI 2.0b DL DVI-D, DisplayPort 1.3/1.4, HDMI 2.0b
TDP, W 75 75 120 120 150 180 250
Odporúčaná maloobchodná cena v čase vydania (USA, bez dane), $ 109 139 199 249/299 (edícia Founders / partnerské karty) 379/449 (edícia Founders / partnerské karty) 599/699 (edícia Founders / partnerské karty) 1 200
Odporúčaná maloobchodná cena v čase vydania (Rusko), rub. 8 490 10 490 ND 18 999 / — (edícia Founders / partnerské karty) ND / 34 990 (Founders Edition / partnerské karty) ND / 54 990 (Founders Edition / partnerské karty)

Základné komponenty grafickej karty:

  • výstupy;
  • rozhrania;
  • chladiaci systém;
  • grafický procesor;
  • video pamäť.

Grafické technológie:

  • slovník;
  • Architektúra GPU: funkcie
    vertexové/pixelové jednotky, shadery, fillrate, textúrové/rastrové jednotky, potrubia;
  • Architektúra GPU: technológia
    výrobný proces, frekvencia GPU, lokálna video pamäť (veľkosť, zbernica, typ, frekvencia), riešenia s viacerými grafickými kartami;
  • vizuálne vlastnosti
    DirectX, vysoký dynamický rozsah (HDR), FSAA, filtrovanie textúr, textúry s vysokým rozlíšením.

Slovník základných grafických pojmov

Obnovovacia frekvencia

Podobne ako v kine alebo na televízore váš počítač simuluje pohyb na monitore zobrazením sekvencie snímok. Obnovovacia frekvencia monitora udáva, koľkokrát za sekundu sa bude obraz na obrazovke aktualizovať. Napríklad 75 Hz zodpovedá 75 aktualizáciám za sekundu.

Ak počítač spracováva snímky rýchlejšie, ako dokáže výstup monitora, môžu sa vyskytnúť problémy s hrami. Napríklad, ak počítač vypočíta 100 snímok za sekundu a obnovovacia frekvencia monitora je 75 Hz, potom v dôsledku prekrytí môže monitor počas obnovovacej periódy zobraziť iba časť obrazu. V dôsledku toho sa objavujú vizuálne artefakty.

Ako riešenie môžete povoliť V-Sync (vertikálna synchronizácia). Obmedzuje počet snímok, ktoré môže počítač vytvoriť, na obnovovaciu frekvenciu monitora, čím zabraňuje vzniku artefaktov. Ak povolíte V-Sync, počet snímok vykreslených v hre nikdy neprekročí obnovovaciu frekvenciu. To znamená, že pri frekvencii 75 Hz bude mať počítač na výstupe maximálne 75 snímok za sekundu.

Pixel

Slovo „Pixel“ znamená „ obr ture el ement“ je obrazový prvok. Ide o drobnú bodku na displeji, ktorá môže svietiť určitou farbou (vo väčšine prípadov sa odtieň zobrazuje kombináciou troch základných farieb: červenej, zelenej a modrej). Ak je rozlíšenie obrazovky 1024 × 768, potom môžete vidieť maticu 1024 pixelov na šírku a 768 pixelov na výšku. Pixely spolu tvoria obraz. Obraz na obrazovke sa aktualizuje 60 až 120-krát za sekundu, v závislosti od typu zobrazenia a údajov poskytovaných výstupom grafickej karty. CRT monitory aktualizujú zobrazenie riadok po riadku, zatiaľ čo LCD monitory s plochým panelom môžu aktualizovať každý pixel samostatne.

Vertex

Všetky objekty v 3D scéne sa skladajú z vrcholov. Vrchol je bod v 3D priestore so súradnicami x, y a z. Niekoľko vrcholov možno zoskupiť do mnohouholníka: najčastejšie do trojuholníka, ale sú možné aj zložitejšie tvary. Polygón je potom textúrovaný, aby objekt vyzeral realisticky. 3D kocka zobrazená na obrázku vyššie má osem vrcholov. Zložitejšie objekty majú zakrivené povrchy, ktoré v skutočnosti pozostávajú z veľmi veľkého počtu vrcholov.

textúra

Textúra je jednoducho 2D obrázok ľubovoľnej veľkosti, ktorý je prekrytý na 3D objekte, aby simuloval jeho povrch. Napríklad naša 3D kocka má osem vrcholov. Pred mapovaním textúr to vyzerá ako jednoduchý box. Ale keď aplikujeme textúru, krabica sa zafarbí.

Shader

Pixel shadery umožňujú grafickej karte vytvárať pôsobivé efekty, ako napríklad táto voda v Elder Scrolls: Oblivion.

Dnes existujú dva typy shaderov: vertex a pixel. Vertex shadery môžu upravovať alebo transformovať 3D objekty. Programy Pixel shader vám umožňujú meniť farby pixelov na základe niektorých údajov. Predstavte si zdroj svetla v 3D scéne, ktorý rozžiari osvetlené objekty jasnejšie a zároveň vrhá tiene na iné objekty. Toto všetko sa realizuje zmenou informácií o farbe pixelov.

Pixel shadery sa používajú na vytváranie zložitých efektov vo vašich obľúbených hrách. Napríklad kód shadera môže spôsobiť, že pixely obklopujúce 3D meč žiaria jasnejšie. Ďalší shader dokáže spracovať všetky vrcholy zložitého 3D objektu a simulovať výbuch. Vývojári hier sa čoraz viac obracajú na komplexné shader programy, aby vytvorili realistickú grafiku. Takmer každá moderná graficky bohatá hra používa shadery.

S vydaním ďalšieho aplikačného programovacieho rozhrania (API, Application Programming Interface) Microsoft DirectX 10 bude vydaný aj tretí typ shadera nazývaný geometry shaders. S ich pomocou bude možné predmety rozbiť, upraviť a dokonca zničiť v závislosti od požadovaného výsledku. Tretí typ shaderov je možné naprogramovať úplne rovnakým spôsobom ako prvé dva, ale jeho úloha bude iná.

Miera plnenia

Veľmi často na krabici s grafickou kartou nájdete hodnotu miery plnenia. Fillrate v podstate udáva, ako rýchlo dokáže GPU vykresliť pixely. Staršie grafické karty mali mieru plnenia trojuholníka. Dnes však existujú dva typy miery plnenia: miera plnenia pixelov a miera plnenia textúry. Ako už bolo spomenuté, miera plnenia pixelov zodpovedá rýchlosti výstupu pixelov. Vypočíta sa ako počet rastrových operácií (ROP) vynásobený frekvenciou hodín.

ATi a nVidia vypočítavajú mieru vypĺňania textúry odlišne. Nvidia si myslí, že rýchlosť sa získa vynásobením počtu pixelových potrubí rýchlosťou hodín. A ATi násobí počet textúrových jednotiek rýchlosťou hodín. V princípe sú obe metódy správne, keďže nVidia používa jednu textúrovú jednotku na pixel shader jednotku (teda jednu na pixel pipeline).

S ohľadom na tieto definície poďme ďalej a diskutujme o najdôležitejších funkciách GPU, čo robia a prečo sú také dôležité.

Architektúra GPU: funkcie

Realizmus 3D grafiky veľmi závisí od výkonu grafickej karty. Čím viac pixel shader blokov procesor obsahuje a čím vyššia je frekvencia, tým viac efektov možno aplikovať na 3D scénu na zlepšenie jej vizuálneho vnímania.

GPU obsahuje mnoho rôznych funkčných blokov. Podľa počtu niektorých komponentov môžete odhadnúť výkon GPU. Skôr než prejdeme ďalej, pozrime sa na najdôležitejšie funkčné bloky.

Procesory Vertex (jednotky Vertex Shader)

Rovnako ako pixel shadery, vertexové procesory vykonávajú shader kód, ktorý sa dotýka vrcholov. Keďže väčší rozpočet na vrcholy vám umožňuje vytvárať zložitejšie 3D objekty, výkon vertexových procesorov je veľmi dôležitý v 3D scénach so zložitými alebo veľkým počtom objektov. Jednotky vertex shader však stále nemajú taký zjavný vplyv na výkon ako pixelové procesory.

Pixel procesory (pixel shadery)

Procesor pixelov je komponent grafického čipu určený na spracovanie programov na úpravu pixelov. Tieto procesory vykonávajú výpočty týkajúce sa iba pixelov. Keďže pixely obsahujú informácie o farbe, pixel shadery môžu dosiahnuť pôsobivé grafické efekty. Napríklad väčšina vodných efektov, ktoré vidíte v hrách, je vytvorená pomocou pixel shaderov. Typicky sa počet pixelových procesorov používa na porovnanie výkonu pixelov grafických kariet. Ak je jedna karta vybavená ôsmimi pixel shader jednotkami a druhá 16 jednotkami, potom je celkom logické predpokladať, že grafická karta so 16 jednotkami bude spracovávať komplexné pixelové programy rýchlejšie. Do úvahy treba brať aj takt, no dnes je zdvojnásobenie počtu pixelových procesorov efektívnejšie z hľadiska spotreby energie ako zdvojnásobenie frekvencie grafického čipu.

Zjednotené shadery

Zjednotené (single) shadery do sveta PC ešte neprišli, no pripravovaný štandard DirectX 10 sa spolieha na podobnú architektúru. To znamená, že štruktúra kódu vrcholových, geometrických a pixelových programov bude rovnaká, hoci shadery budú vykonávať inú prácu. Novú špecifikáciu si môžete pozrieť na Xbox 360, kde GPU navrhol na mieru ATi pre Microsoft. Bude veľmi zaujímavé sledovať, aký potenciál prinesie nové DirectX 10.

Jednotky mapovania textúr (TMU)

Textúry by mali byť vybrané a filtrované. Túto prácu vykonávajú jednotky mapovania textúr, ktoré pracujú v spojení s pixelovými a vertex shader jednotkami. Úlohou TMU je aplikovať textúrne operácie na pixely. Počet textúrnych jednotiek v GPU sa často používa na porovnanie výkonu textúr grafických kariet. Je celkom rozumné predpokladať, že grafická karta s viacerými jednotkami TMU poskytne lepší výkon textúry.

Raster Operator Unit (ROP)

RIP sú zodpovedné za zápis údajov o pixeloch do pamäte. Rýchlosť, akou sa táto operácia vykonáva, je miera plnenia. V počiatkoch 3D akcelerátorov boli ROP a miery plnenia veľmi dôležitými charakteristikami grafických kariet. Dnes je práca ROP stále dôležitá, ale výkon grafickej karty už nie je obmedzený týmito blokmi, ako to bolo kedysi. Preto sa výkon (a číslo) ROP zriedka používa na vyhodnotenie rýchlosti grafickej karty.

Dopravníky

Potrubia sa používajú na popis architektúry grafických kariet a poskytujú veľmi vizuálnu reprezentáciu výkonu GPU.

Dopravník nemožno považovať za striktný technický pojem. GPU používa rôzne potrubia, ktoré vykonávajú rôzne funkcie. Historicky sa pipeline chápalo ako pixelový procesor, ktorý bol pripojený k vlastnej jednotke na mapovanie textúr (TMU). Napríklad grafická karta Radeon 9700 používa osem pixelových procesorov, z ktorých každý je pripojený k vlastnej TMU, takže karta má osem kanálov.

Je však veľmi ťažké opísať moderné procesory počtom potrubí. V porovnaní s predchádzajúcimi návrhmi nové procesory využívajú modulárnu, fragmentovanú štruktúru. Za inovátora v tejto oblasti možno považovať spoločnosť ATi, ktorá pri rade grafických kariet X1000 prešla na modulárnu štruktúru, čo umožnilo dosiahnuť zvýšenie výkonu internou optimalizáciou. Niektoré bloky CPU sú využívané viac ako iné a s cieľom zlepšiť výkon GPU sa ATi pokúsilo nájsť kompromis medzi počtom potrebných blokov a oblasťou matrice (nedá sa veľmi zväčšiť). V tejto architektúre už pojem „pixel pipeline“ stratil svoj význam, keďže pixelové procesory už nie sú pripojené k vlastným TMU. Napríklad GPU ATi Radeon X1600 má 12 pixel shaderov a celkovo štyri TMU. Nedá sa teda povedať, že v architektúre tohto procesora sú 12 pixelové pipeline, rovnako ako nemožno povedať, že sú len štyri. Tradične sa však stále spomínajú pipeline pixelov.

S ohľadom na tieto predpoklady sa počet pixelov v GPU často používa na porovnanie grafických kariet (s výnimkou radu ATi X1x00). Napríklad, ak vezmeme grafické karty s 24 a 16 kanálmi, potom je celkom rozumné predpokladať, že karta s 24 kanálmi bude rýchlejšia.

Architektúra GPU: Technológia

Procesná technológia

Tento pojem označuje veľkosť jedného prvku (tranzistora) čipu a presnosť výrobného procesu. Zlepšenie technických procesov umožňuje získať prvky menších rozmerov. Napríklad proces 0,18 µm vytvára väčšie prvky ako proces 0,13 µm, takže nie je taký efektívny. Menšie tranzistory pracujú s nižším napätím. Pokles napätia zase vedie k zníženiu tepelného odporu, čo znižuje množstvo generovaného tepla. Zlepšenie procesnej technológie umožňuje zmenšiť vzdialenosť medzi funkčnými blokmi čipu a prenos dát zaberie menej času. Kratšie vzdialenosti, nižšie napätie a ďalšie vylepšenia umožňujú dosiahnuť vyššiu rýchlosť hodín.

Trochu komplikuje pochopenie toho, že na označenie technológie procesu sa dnes používajú mikrometre (µm) aj nanometre (nm). V skutočnosti je všetko veľmi jednoduché: 1 nanometer sa rovná 0,001 mikrometra, takže výrobné procesy 0,09 mikrónu a 90 nm sú to isté. Ako je uvedené vyššie, menšia procesná technológia vám umožňuje dosiahnuť vyššie rýchlosti hodín. Napríklad, ak porovnáme grafické karty s čipmi 0,18 mikrónu a 0,09 mikrónu (90 nm), potom je celkom rozumné očakávať vyššiu frekvenciu od 90 nm karty.

Rýchlosť hodín GPU

Frekvencia GPU sa meria v megahertzoch (MHz), čo sú milióny cyklov za sekundu.

Rýchlosť hodín priamo ovplyvňuje výkon GPU. Čím je vyššia, tým viac práce je možné vykonať za sekundu. Ako prvý príklad si vezmime grafické karty nVidia GeForce 6600 a 6600 GT: grafický procesor 6600 GT beží na 500 MHz, zatiaľ čo bežná karta 6600 beží na 400 MHz. Pretože procesory sú technicky identické, 20% zvýšenie rýchlosti hodín na 6600 GT vedie k lepšiemu výkonu.

Rýchlosť hodín však nie je všetko. Majte na pamäti, že výkon je výrazne ovplyvnený architektúrou. Ako druhý príklad si vezmime grafické karty GeForce 6600 GT a GeForce 6800 GT. Frekvencia GPU 6600 GT je 500 MHz, ale 6800 GT beží iba na 350 MHz. Teraz zoberme do úvahy, že 6800 GT používa 16 pixel pipeline, zatiaľ čo 6600 GT má len osem. Preto 6800 GT so 16 pipeline na 350 MHz podá približne rovnaký výkon ako procesor s ôsmimi pipelinemi a dvojnásobným taktom (700 MHz). Vďaka tomu možno rýchlosť hodín použiť na porovnanie výkonu.

Lokálna video pamäť

Pamäť grafickej karty má obrovský vplyv na výkon. Rôzne nastavenia pamäte však ovplyvňujú rôzne.

Video pamäť

Množstvo video pamäte možno pravdepodobne nazvať parametrom grafickej karty, ktorý je najviac nadhodnotený. Neskúsení spotrebitelia často využívajú množstvo video pamäte na vzájomné porovnanie rôznych kariet, ale v skutočnosti má množstvo malý vplyv na výkon v porovnaní s parametrami, ako je frekvencia pamäťovej zbernice a rozhranie (šírka zbernice).

Vo väčšine prípadov bude karta so 128 MB videopamäte fungovať takmer rovnako ako karta s 256 MB. Samozrejme, sú situácie, kedy viac pamäte vedie k lepšiemu výkonu, no pamätajte, že viac pamäte automaticky nezvýši rýchlosť v hrách.

Hlasitosť je užitočná v hrách s textúrami vo vysokom rozlíšení. Vývojári hry zahŕňajú s hrou niekoľko sád textúr. A čím viac pamäte je na grafickej karte, tým vyššie rozlíšenie môžu mať načítané textúry. Textúry s vysokým rozlíšením poskytujú hre vyššie rozlíšenie a detaily. Preto je celkom rozumné vziať kartu s veľkým množstvom pamäte, ak sú všetky ostatné kritériá rovnaké. Pripomeňme si ešte raz, že šírka pamäťovej zbernice a jej frekvencia majú na výkon oveľa silnejší vplyv ako množstvo fyzickej pamäte na karte.

Šírka pamäťovej zbernice

Šírka pamäťovej zbernice je jedným z najdôležitejších aspektov výkonu pamäte. Moderné zbernice majú šírku od 64 do 256 bitov a v niektorých prípadoch dokonca 512 bitov. Čím širšia je pamäťová zbernica, tým viac informácií dokáže preniesť za hodinu. A to priamo ovplyvňuje výkon. Napríklad, ak vezmeme dve zbernice s rovnakými frekvenciami, potom teoreticky 128-bitová zbernica prenesie dvakrát toľko údajov za hodinu ako 64-bitová. 256-bitová zbernica je dvakrát väčšia.

Väčšia šírka pásma zbernice (vyjadrená v bitoch alebo bajtoch za sekundu, 1 bajt = 8 bitov) poskytuje lepší výkon pamäte. Preto je pamäťová zbernica oveľa dôležitejšia ako jej veľkosť. Pri rovnakých frekvenciách funguje 64-bitová pamäťová zbernica iba na 25 % 256-bitovej!

Zoberme si nasledujúci príklad. Grafická karta so 128 MB video pamäte, ale s 256-bitovou zbernicou poskytuje oveľa lepší výkon pamäte ako 512 MB model so 64-bitovou zbernicou. Dôležité je podotknúť, že pri niektorých kartách zo série ATi X1x00 výrobcovia uvádzajú špecifikácie internej pamäťovej zbernice, nás však zaujímajú parametre externej zbernice. Napríklad interná kruhová zbernica X1600 má šírku 256 bitov, ale vonkajšia iba 128 bitov. A v skutočnosti pamäťová zbernica pracuje so 128-bitovým výkonom.

Typy pamäte

Pamäť možno rozdeliť do dvoch hlavných kategórií: SDR (jednoduchý prenos dát) a DDR (dvojitý prenos dát), v ktorých sa dáta prenášajú dvakrát rýchlejšie. Dnes je technológia jednoduchého prenosu SDR zastaraná. Keďže pamäť DDR prenáša dáta dvakrát rýchlejšie ako SDR, je dôležité si uvedomiť, že grafické karty s pamäťou DDR často uvádzajú dvojnásobnú frekvenciu, nie fyzickú. Ak je napríklad pamäť DDR uvedená na 1 000 MHz, je to efektívna frekvencia, na ktorej musí bežať bežná pamäť SDR, aby sa dosiahla rovnaká šírka pásma. Ale v skutočnosti je fyzická frekvencia 500 MHz.

Z tohto dôvodu je veľa ľudí prekvapených, keď je ich pamäť grafickej karty uvedená na 1200 MHz DDR, zatiaľ čo utility uvádzajú 600 MHz. Takže si budete musieť zvyknúť. DDR2 a GDDR3/GDDR4 pamäte fungujú na rovnakom princípe, teda s dvojitým prenosom dát. Rozdiel medzi pamäťami DDR, DDR2, GDDR3 a GDDR4 spočíva v technológii výroby a niektorých detailoch. DDR2 môže pracovať na vyšších frekvenciách ako pamäť DDR a DDR3 môže pracovať na ešte vyšších frekvenciách ako DDR2.

Frekvencia pamäťovej zbernice

Rovnako ako procesor, aj pamäť (alebo presnejšie pamäťová zbernica) beží pri určitých frekvenciách, meraných v megahertzoch. Tu zvýšenie rýchlosti hodín priamo ovplyvňuje výkon pamäte. A frekvencia pamäťovej zbernice je jedným z parametrov, ktoré sa používajú na porovnanie výkonu grafických kariet. Napríklad, ak sú všetky ostatné charakteristiky (šírka pamäťovej zbernice atď.) rovnaké, potom je celkom logické povedať, že grafická karta s 700 MHz pamäťou je rýchlejšia ako 500 MHz.

Opäť platí, že rýchlosť hodín nie je všetko. 700 MHz pamäť so 64-bitovou zbernicou bude pomalšia ako 400 MHz pamäť so 128-bitovou zbernicou. Výkon 400 MHz pamäte na 128-bitovej zbernici zodpovedá približne 800 MHz pamäti na 64-bitovej zbernici. Mali by ste tiež pamätať na to, že frekvencia GPU a pamäte sú úplne odlišné parametre a zvyčajne sú odlišné.

Rozhranie grafickej karty

Všetky dáta prenášané medzi grafickou kartou a procesorom prechádzajú cez rozhranie grafickej karty. Dnes sa pre grafické karty používajú tri typy rozhraní: PCI, AGP a PCI Express. Líšia sa šírkou pásma a inými charakteristikami. Je jasné, že čím väčšia šírka pásma, tým vyšší výmenný kurz. Veľkú šírku pásma však dokážu využívať len najmodernejšie karty a aj to len čiastočne. Rýchlosť rozhrania v istom momente prestala byť „úzkym hrdlom“, dnes už jednoducho stačí.

Najpomalšia zbernica, pre ktorú boli grafické karty vyrobené, je PCI (Peripheral Components Interconnect). Bez zachádzania do histórie, samozrejme. PCI skutočne zhoršilo výkon grafických kariet, takže prešli na rozhranie AGP (Accelerated Graphics Port). Ale aj špecifikácie AGP 1.0 a 2x obmedzovali výkon. Keď štandard zvýšil rýchlosť na AGP 4x, začali sme sa približovať k praktickému limitu šírky pásma, ktorú môžu grafické karty využívať. Špecifikácia AGP 8x opäť zdvojnásobila šírku pásma v porovnaní s AGP 4x (2,16 GB / s), no výrazného nárastu grafického výkonu sme sa nedočkali.

Najnovšia a najrýchlejšia zbernica je PCI Express. Novšie grafické karty zvyčajne používajú rozhranie PCI Express x16, ktoré kombinuje 16 pruhov PCI Express s celkovou šírkou pásma 4 GB/s (v jednom smere). To je dvojnásobná priepustnosť oproti AGP 8x. Zbernica PCI Express dáva spomínanú šírku pásma pre oba smery (prenos dát do a z grafickej karty). Rýchlosť štandardu AGP 8x už ale stačila, a tak sme sa ešte nestretli so situáciami, kedy by prechod na PCI Express priniesol výkon oproti AGP 8x (ak sú ostatné hardvérové ​​parametre rovnaké). Napríklad AGP verzia GeForce 6800 Ultra bude fungovať identicky ako 6800 Ultra pre PCI Express.

Dnes je najlepšie kúpiť kartu s rozhraním PCI Express, na trhu vydrží ešte niekoľko rokov. Najproduktívnejšie karty už nie sú dostupné s rozhraním AGP 8x a riešenia PCI Express sa už spravidla dajú ľahšie nájsť ako analógy AGP a sú lacnejšie.

Multi-GPU riešenia

Používanie viacerých grafických kariet na zvýšenie grafického výkonu nie je nový nápad. V začiatkoch 3D grafiky vstúpilo 3dfx na trh s dvomi grafickými kartami bežiacimi paralelne. So zmiznutím 3dfx sa však zabudlo na technológiu pre spoluprácu viacerých spotrebiteľských grafických kariet, hoci ATi vyrába podobné systémy pre profesionálne simulátory od vydania Radeonu 9700. Pred pár rokmi sa technológia vrátila na trh s nástup riešení nVidia SLI a o niečo neskôr aj ATi Crossfire.

Zdieľanie viacerých grafických kariet poskytuje dostatočný výkon na spustenie hry pri nastavení vysokej kvality vo vysokom rozlíšení. Ale vybrať si jedno alebo druhé nie je jednoduché.

Začnime tým, že riešenia založené na viacerých grafických kartách vyžadujú veľa energie, takže napájanie musí byť dostatočne výkonné. Všetko toto teplo bude treba z grafickej karty odviesť, takže treba dávať pozor na PC skrinku a chladenie, aby sa systém neprehrial.

Pamätajte tiež, že SLI/CrossFire vyžaduje vhodnú základnú dosku (buď pre tú či onú technológiu), ktorá je zvyčajne drahšia ako štandardné modely. Konfigurácia nVidia SLI bude fungovať iba na určitých doskách nForce4, zatiaľ čo karty ATi CrossFire budú fungovať iba na základných doskách s čipovou sadou CrossFire alebo niektorých modeloch Intel. Aby toho nebolo málo, niektoré konfigurácie CrossFire vyžadujú, aby bola jedna z kariet špeciálna: CrossFire Edition. Po vydaní CrossFire pre niektoré modely grafických kariet ATi umožnilo zahrnutie technológie spolupráce cez zbernicu PCI Express a s vydaním nových verzií ovládačov sa zvyšuje počet možných kombinácií. Hardvérový CrossFire s príslušnou kartou CrossFire Edition však stále poskytuje lepší výkon. Karty CrossFire Edition sú ale aj drahšie ako bežné modely. V súčasnosti môžete povoliť softvérový režim CrossFire (bez karty CrossFire Edition) na grafických kartách Radeon X1300, X1600 a X1800 GTO.

Mali by sa vziať do úvahy aj ďalšie faktory. Hoci dve grafické karty spolupracujúce poskytujú zvýšenie výkonu, zďaleka to nie je dvojnásobok. Zaplatíte však dvakrát toľko peňazí. Najčastejšie je zvýšenie produktivity 20-60%. A v niektorých prípadoch kvôli dodatočným výpočtovým nákladom na párovanie nedôjde k žiadnemu zvýšeniu. Z tohto dôvodu sa konfigurácie s viacerými kartami pravdepodobne nevyplatia pri lacných modeloch, pretože drahšia grafická karta zvyčajne vždy prekoná pár lacných kariet. Vo všeobecnosti pre väčšinu spotrebiteľov nedáva riešenie SLI / CrossFire zmysel. Ak však chcete povoliť všetky možnosti vylepšenia kvality alebo hrať v extrémnych rozlíšeniach, napríklad 2560 x 1600, keď potrebujete vypočítať viac ako 4 milióny pixelov na snímku, potom sú nevyhnutné dve alebo štyri spárované grafické karty.

Vizuálne vlastnosti

Okrem čisto hardvérových špecifikácií sa rôzne generácie a modely GPU môžu líšiť v súboroch funkcií. Napríklad o kartách generácie ATi Radeon X800 XT sa často hovorí, že sú kompatibilné so Shader Model 2.0b (SM), zatiaľ čo nVidia GeForce 6800 Ultra je kompatibilná s SM 3.0, hoci ich hardvérové ​​špecifikácie sú blízko seba (16 kanálov). Preto sa mnohí spotrebitelia rozhodujú v prospech jedného alebo druhého riešenia, pričom ani nevedia, čo tento rozdiel znamená.

Verzie Microsoft DirectX a Shader Model

Tieto mená sa najčastejšie používajú v sporoch, no málokto vie, čo v skutočnosti znamenajú. Aby sme to pochopili, začnime históriou grafických API. DirectX a OpenGL sú grafické API, teda aplikačné programové rozhrania – štandardy otvoreného kódu dostupné pre každého.

Pred príchodom grafických API mal každý výrobca GPU svoj vlastný mechanizmus na komunikáciu s hrami. Vývojári museli napísať samostatný kód pre každý GPU, ktorý chceli podporovať. Veľmi drahý a neefektívny prístup. Na vyriešenie tohto problému boli vyvinuté API pre 3D grafiku, aby vývojári písali kód pre konkrétne API, a nie pre tú či onú grafickú kartu. Potom padli problémy s kompatibilitou na plecia výrobcov grafických kariet, ktorí museli zabezpečiť, aby boli ovládače kompatibilné s API.

Jedinou komplikáciou zostáva, že dnes sa používajú dve rôzne API, a to Microsoft DirectX a OpenGL, kde GL znamená Graphics Library (grafická knižnica). Keďže DirectX API je dnes v hrách populárnejšie, zameriame sa práve naň. A tento štandard ovplyvnil vývoj hier výraznejšie.

DirectX je výtvorom spoločnosti Microsoft. V skutočnosti DirectX obsahuje niekoľko API, z ktorých iba jedno sa používa pre 3D grafiku. DirectX obsahuje API pre zvuk, hudbu, vstupné zariadenia a ďalšie. Direct3D API je zodpovedné za 3D grafiku v DirectX. Keď hovoria o grafických kartách, myslia to presne, preto sú v tomto ohľade pojmy DirectX a Direct3D zameniteľné.

DirectX sa pravidelne aktualizuje s pokrokom v grafickej technológii a vývojári hier zavádzajú nové techniky programovania hier. Keďže popularita DirectX rýchlo rástla, výrobcovia GPU začali prispôsobovať vydania nových produktov tak, aby vyhovovali schopnostiam DirectX. Z tohto dôvodu sú grafické karty často viazané na hardvérovú podporu jednej alebo druhej generácie DirectX (DirectX 8, 9.0 alebo 9.0c).

Aby sa veci ešte viac skomplikovali, časti rozhrania Direct3D API sa môžu časom meniť bez toho, aby sa menili generácie DirectX. Napríklad špecifikácia DirectX 9.0 špecifikuje podporu pre Pixel Shader 2.0. Aktualizácia DirectX 9.0c však obsahuje Pixel Shader 3.0. Takže aj keď sú karty v triede DirectX 9, môžu podporovať rôzne sady funkcií. Napríklad Radeon 9700 podporuje Shader Model 2.0 a Radeon X1800 podporuje Shader Model 3.0, hoci obe karty možno klasifikovať ako generáciu DirectX 9.

Pamätajte, že pri vytváraní nových hier vývojári berú do úvahy majiteľov starých strojov a grafických kariet, pretože ak ignorujete tento segment používateľov, predaje budú nižšie. Z tohto dôvodu je do hier zabudovaných viacero kódových ciest. Hra triedy DirectX 9 má pravdepodobne kvôli kompatibilite cestu DirectX 8 a dokonca aj cestu DirectX 7. Zvyčajne, ak sa zvolí stará cesta, niektoré virtuálne efekty, ktoré sú na nových grafických kartách, v hre zmiznú. Ale aspoň sa dá hrať aj na starom hardvéri.

Mnoho nových hier vyžaduje inštaláciu najnovšej verzie DirectX, aj keď je grafická karta z predchádzajúcej generácie. To znamená, že nová hra, ktorá bude používať cestu DirectX 8, stále vyžaduje inštaláciu najnovšej verzie DirectX 9 na grafickú kartu triedy DirectX 8.

Aké sú rozdiely medzi rôznymi verziami rozhrania Direct3D API v DirectX? Prvé verzie DirectX – 3, 5, 6 a 7 – boli relatívne jednoduché z hľadiska rozhrania Direct3D API. Vývojári si mohli vybrať vizuálne efekty zo zoznamu a potom skontrolovať svoju prácu v hre. Ďalším významným krokom v programovaní grafiky bolo DirectX 8. Predstavilo možnosť programovania grafickej karty pomocou shaderov, takže vývojári mali prvýkrát voľnosť pri programovaní efektov tak, ako chceli. DirectX 8 podporuje Pixel Shader verzie 1.0 až 1.3 a Vertex Shader 1.0. DirectX 8.1, aktualizovaná verzia DirectX 8, dostala Pixel Shader 1.4 a Vertex Shader 1.1.

V DirectX 9 môžete vytvárať ešte zložitejšie shader programy. DirectX 9 podporuje Pixel Shader 2.0 a Vertex Shader 2.0. DirectX 9c, aktualizovaná verzia DirectX 9, obsahovala špecifikáciu Pixel Shader 3.0.

DirectX 10, pripravovaná verzia API, bude sprevádzať novú verziu Windows Vista. DirectX 10 nie je možné nainštalovať v systéme Windows XP.

HDR osvetlenie a OpenEXR HDR

HDR znamená „High Dynamic Range“, teda vysoký dynamický rozsah. Hra s HDR osvetlením môže poskytnúť oveľa realistickejší obraz ako hra bez neho a nie všetky grafické karty podporujú HDR osvetlenie.

Pred príchodom grafických kariet triedy DirectX 9 boli GPU výrazne obmedzené presnosťou výpočtov osvetlenia. Doteraz bolo možné počítať osvetlenie iba s 256 (8 bitmi) vnútornými úrovňami.

Keď sa objavili grafické karty triedy DirectX 9, boli schopné produkovať osvetlenie s vysokou presnosťou - plných 24 bitov alebo 16,7 milióna úrovní.

S 16,7 miliónmi úrovní a po vykonaní ďalšieho kroku vo výkone grafickej karty triedy DirectX 9/Shader Model 2.0 je HDR osvetlenie možné aj na počítačoch. Ide o pomerne zložitú technológiu a musíte ju sledovať v dynamike. Zjednodušene povedané, HDR osvetlenie zvyšuje kontrast (tmavé tóny sa javia tmavšie, svetlé tóny svetlejšie), pričom zároveň zvyšuje množstvo detailov osvetlenia v tmavých a svetlých oblastiach. Hra s HDR osvetlením pôsobí živšie a realistickejšie ako bez neho.

GPU, ktoré sú v súlade s najnovšou špecifikáciou Pixel Shader 3.0, umožňujú výpočty s vyššou 32-bitovou presnosťou osvetlenia, ako aj miešanie s pohyblivou rádovou čiarkou. Grafické karty triedy SM 3.0 teda môžu podporovať špeciálnu metódu osvetlenia HDR OpenEXR, špeciálne navrhnutú pre filmový priemysel.

Niektoré hry, ktoré podporujú iba osvetlenie HDR pomocou metódy OpenEXR, nebudú fungovať s osvetlením HDR na grafických kartách Shader Model 2.0. Hry, ktoré sa nespoliehajú na metódu OpenEXR, však budú fungovať na akejkoľvek grafickej karte DirectX 9. Napríklad Oblivion používa metódu OpenEXR HDR a umožňuje povoliť osvetlenie HDR iba na najnovších grafických kartách, ktoré podporujú špecifikáciu Shader Model 3.0. Napríklad nVidia GeForce 6800 alebo ATi Radeon X1800. Hry, ktoré využívajú 3D engine Half-Life 2, ako napríklad Counter-Strike: Source a pripravovaný Half-Life 2: Aftermath, vám umožňujú povoliť vykresľovanie HDR na starších grafických kartách DirectX 9, ktoré podporujú iba Pixel Shader 2.0. Medzi príklady patrí rad GeForce 5 alebo ATi Radeon 9500.

A nakoniec, majte na pamäti, že všetky formy vykresľovania HDR vyžadujú seriózny výpočtový výkon a môžu položiť na kolená aj tie najvýkonnejšie GPU. Ak chcete hrať najnovšie hry s osvetlením HDR, vysokovýkonná grafika je nevyhnutnosťou.

Vyhladzovanie na celej obrazovke

Anti-aliasing na celú obrazovku (skrátene AA) umožňuje eliminovať charakteristické „rebríky“ na hraniciach polygónov. Majte však na pamäti, že antialiasing na celú obrazovku spotrebúva veľa výpočtových zdrojov, čo vedie k poklesu snímkovej frekvencie.

Vyhladzovanie je veľmi závislé od výkonu videopamäte, takže rýchla grafická karta s rýchlou pamäťou bude schopná vypočítať vyhladzovanie na celej obrazovke s menším dopadom na výkon ako lacná grafická karta. Anti-aliasing je možné povoliť v rôznych režimoch. Napríklad 4x vyhladzovanie poskytne lepší obraz ako 2x vyhladzovanie, ale bude to veľký výkon. Kým 2x anti-aliasing zdvojnásobí horizontálne a vertikálne rozlíšenie, 4x režim ho štvornásobne.

Filtrovanie textúry

Všetky 3D objekty v hre sú textúrované a čím väčší je uhol zobrazeného povrchu, tým zdeformovanejšie bude textúra vyzerať. Na odstránenie tohto efektu používajú GPU filtrovanie textúr.

Prvá metóda filtrovania sa nazývala bilineárna a poskytovala charakteristické pruhy, ktoré neboli veľmi príjemné pre oči. Situácia sa zlepšila zavedením trilineárneho filtrovania. Obe možnosti na moderných grafických kartách fungujú prakticky bez zníženia výkonu.

Anizotropné filtrovanie (AF) je zďaleka najlepší spôsob filtrovania textúr. Podobne ako pri FSAA, anizotropné filtrovanie je možné zapnúť na rôznych úrovniach. Napríklad 8x AF poskytuje lepšiu kvalitu filtrovania ako 4x AF. Rovnako ako FSAA, anizotropné filtrovanie vyžaduje určité množstvo výpočtového výkonu, ktoré sa zvyšuje so zvyšujúcou sa úrovňou AF.

Textúry s vysokým rozlíšením

Všetky 3D hry sú vytvorené podľa špecifických špecifikácií a jedna z týchto požiadaviek určuje textúrovú pamäť, ktorú bude hra potrebovať. Všetky potrebné textúry sa musia počas hry zmestiť do pamäte grafickej karty, inak výkon výrazne klesne, pretože prístup k textúre v RAM spôsobuje značné oneskorenie, nehovoriac o stránkovacom súbore na pevnom disku. Ak teda vývojár hry počíta so 128 MB VRAM ako minimálnou požiadavkou, potom by aktívna sada textúr nemala kedykoľvek presiahnuť 128 MB.

Moderné hry majú viacero sád textúr, takže hra bez problémov pobeží na starších grafických kartách s menšou VRAM, ako aj na novších kartách s väčšou VRAM. Napríklad hra môže obsahovať tri sady textúr: pre 128 MB, 256 MB a 512 MB. V súčasnosti existuje len veľmi málo hier, ktoré podporujú 512 MB videopamäte, no stále sú tým najobjektívnejším dôvodom na kúpu grafickej karty s týmto množstvom pamäte. Hoci zvýšenie pamäte má malý alebo žiadny vplyv na výkon, získate zlepšenie vizuálnej kvality, ak hra podporuje príslušnú sadu textúr.

Čo potrebujete vedieť o grafických kartách?

V kontakte s