ATI vs. NVIDIA kezdetektől napjainkig II.

A párharc folytatódik a 3D gyorsítás két úttörője között. Figyelem, extrém hosszúságú és mélységű cikk! – írta: GAI, 3 éve

Az előző rész tartalmából

Mint azt a bevezetőben is említettem, ez a cikk a GeForce 600-as és a Radeon HD 7000-es szériánál veszi fel a fonalat, vagyis ugyanott, ahol az előző rész abbahagyta. Egy rövid áttekintés erejéig azonban érdemes felidéznünk, hogy hogyan alakult a két konkurens gyártó története a kezdetektől eddig a pontig. Akit részletesebben érdekel ez a korszak, az persze jobban teszi, ha elolvassa az eredeti nagycikket, ám a többiek kedvéért álljon itt egy rövid összefoglaló.

Pre-DirectX korszak

Az ATI kártyák történelme csaknem 10 évvel megelőzi az NVIDIA-ét, így nem csoda, hogy a kezdeti modellek még az ISA-s korban születtek, és természetesen 3D gyorsítást nem tudtak. A legelső típusok a Wonder szériát alkották (nem összekeverendő a későbbi All-In-Wonder nevű TV tuneres kártyákkal), és 1986-os megjelenésükkel az első IBM PC-khez készült grafikus bővítőkártyák közé tartoztak. CGA, EGA, VGA szabványú monitorokat kezelő változatok egyaránt készültek belőlük. Ezután a Mach széria következett, mely generációról generációra fejlettebb szolgáltatásokat nyújtott.

Az ATI első 3D gyorsításra képes modellje az 1996-ban megjelent, Mach 64 GT néven is ismert Rage 3D volt. Meglehetősen limitált 3D-s képességekkel rendelkezett, ezen kívül pedig MPEG-I gyorsítást kínált. A 3D Rage II csaknem megduplázta a 3D-s teljesítményt, és egyes típusai MPEG-II gyorsításra is képesek voltak.

Az NVIDIA történelme későbbről, és nehézkesebben indult. Első próbálkozásuk, az 1995-ben megjelent NV1 még csúfos bukás volt, hiszen a DirectX szabvány véglegesítése előtt dobták piacra, és teljesen egyedi 3D gyorsítási módját, mely Quadratic Texture Mapping névre hallgatott, és háromszögek helyett négyszögekkel számolt, csak nagyon kevés, speciálisan erre a kártyára írt játék támogatta. Emellett nagyon drága is volt a termék az integrált hangkártya és gameport miatt, így nem tudott piaci sikert elérni.

ATI Wonder és NVIDIA NV1

DirectX 5-6 korszak

A 3D királya ekkoriban a 3Dfx volt, hiszen ők hozták el a hétköznapi felhasználók számára a megfizethető, és valóban működő 3D gyorsítás élményét, még 1996 végén, a Voodoo névre keresztelt kártyájukkal. Emellett más, korábban 2D-s gyorsító chipeket készítő gyártók is próbálkoztak lépést tartani a fejlődéssel, és 3D gyorsító tervezésébe fogtak, így korántsem csak kétszereplős volt a piac, mint manapság. Többek között az S3, a Matrox, a Trident, vagy épp a PowerVR egyaránt harcban állt cikkünk két főszereplőjével. 1997-re nyilvánvalóvá vált, hogy egy olyan gyorsító, amely nem támogatja a Microsoft DirectX szabványát, bukásra van ítélve.

Az NV1 sikertelenségébe majdnem belerokkant NVIDIA a Riva 128 modellbe vetette minden reménységét, és ez a kor színvonalán igencsak fejlett megoldás lett, hiszen egyetlen chipbe integrálta a 2D és 3D gyorsítót, valamint a RAMDAC-ot is, emellett modern memóriát használt, és AGP támogatással is rendelkezett. Sebesség tekintetében kicsit gyorsabb volt a konkurens Voodoo-nál, ám képminősége gyerekbetegségekkel küzdött, így messze nem adott olyan lenyűgöző élményt, mint egy 3Dfx kártya.

Az ATI a korábbi Rage modelleket reszelgette tovább. A sorozat legerősebb változata, a Rage Pro hasonló felépítéssel rendelkezett, mint a Riva 128, de kicsivel lassabb volt nála, viszont számos butított varinánst is kínáltak, vagyis jobban lefedték a piacot, mint az ekkoriban kizárólag egyetlen típust áruló NVIDIA.

NVIDIA Riva 128 ZX és ATI Rage Pro

A 3D gyorsítók fejlesztése ekkortájt gőzerővel zajlott, hiszen egy vadonatúj termékkategóriáról volt szó. 1998-ban a 3Dfx kijött a lehengerlően gyors, ám kissé már elavult felépítést követő Voodoo 2-es kártyájával, de természetesen cikkünk két főszereplőjénél sem állt meg a fejlődés. Az NVIDIA a Riva TNT típussal jelentkezett, mely azon kívül, hogy tartani tudta a lépést a konkurenciával, levetkőzte elődje gyerekbetegségeit is a képminőség terén. Az ATI háza táján a Rage 128-as típus kisebb modelljei jelentek meg, ezek sebesség terén nem hoztak akkora előrelépést, mint az NVIDIA továbbra is egyetlen változatban létező NV4-es chipje, de elégnek bizonyultak ahhoz, hogy a cég megmaradjon a piacon.

NVIDIA Riva TNT és ATI Rage 128

Az NVIDIA ekkoriban kegyetlen tempót diktált a fejlesztések terén, és bevezették a féléves termékciklust, azaz a manapság szokásos 2-3 év helyett fél évente adtak ki új generációt, melyek többnyire jelentős teljesítménytöbbletet nyújtottak elődeikhez képest. Ezt a fejlesztési ütemet a legtöbb konkurens gyártó nem bírta, de az ATI mellett a 3dfx és az S3 még tartotta magát a megfontolásra érdemes választások között. A népszerű, erőteljes, és most már többféle változatban árult TNT2 ellen a Rage 128 Pro változatot indította az ATI, mely sebességben ismét lemaradt kissé, de kedvező ára miatt mégis eléggé elterjedt volt.

NVIDIA Riva TNT2 Pro és ATI Rage 128 Pro

DirectX 7 korszak

Az 1999-es év vége a hetedik DirectX verzióban debütáló Hardware T&L (Transform & Lighting) funkció bűvöletében telt, mely jelentősen tehermentesítette a CPU-t a 3D renderelés munkafolyamatában, vagyis hatalmas teljesítményugrást jelentett a funkciót támogató játékok és kártyák kombinálása esetén. Cikkünk két főszereplője mellett ekkor már csak az S3 volt versenyben az új technológia kifejlesztése terén, a 3dfx ugyanis külön utat választott, ami sajnos zsákutcát jelentett, és a cég bukását eredményezte. Ezzel ellentétben az S3 Savage 2000 a legelső DirectX 7-kompatibilis 3D gyorsítóként jelent meg a piacon, ám hamar kiderült, hogy a megvalósításba sajnos hiba csúszott, így le is kellett tiltani a funkciót a későbbi driverekben. Ezzel lényegében kialakult a mai kétszereplős piac, ugyanis csak az ATI és az NVIDIA kínált versenyképes DX7 gyorsítókat. Különleges és szép történelmi adat, hogy mindkét gyártó ekkor vezette be a máig használatban lévő termék tmegnevezésüket, azaz ekkor debütált az első GeForce, és az első Radeon kártya, igaz, utóbbi fél éves késéssel követte ellenfelét.

NVIDIA GeForce 256 és ATI Radeon

Az NVIDIA gépezete továbbra is ontotta magából az új fejlesztéseket, így mire az ATI elkészült az első Radeonnal, 2000 tavasztán már a második GeForce generációval találta magát szemben, mely ellen nem sok esélyük volt a később Radeon 7200-ra átkeresztelt kártyáknak. A különösen izmos GTS és Ultra mellett költséghatékony MX változatban is készülő GF2-es kártyákkal az NVIDIA hosszú időre bebetonozta vezető szerepét a piacon. Az ATI 2001-ben ugyan jelentkezett egy erősebb modellváltozattal, mely a Radeon 7500 nevet kapta, ám ez is csak utolérni tudta a GF2-eseket, nem pedig megelőzni őket, annak ellenére, hogy több, mint 1 évvel később jelent meg. Bár emiatt igazából nem is kortársak, de utolsó DX7-es generációként, ezt a két típust érdemes párba állítani, megjegyezve ugyanakkor, hogy az NVIDIA részéről még a GF4 korszakban is készültek DX7-es típusok, a butított MX kártyák személyében.

NVIDIA GeForce 2 Ultra és ATI Radeon 7500

DirectX 8 korszak

A nyolcadik DirectX verzió a programozható pixel és vertex shadereket vezette be, ezzel pedig talán a legnagyobb látványbeli előrelépést jelentette a 3D gyorsítás történetében. Az élethű árnyékok és tükröződések megjelenítésére képes technológia dedikált feldolgozóegységeket igényelt a GPU-n belül, vagyis alaposan át kellett tervezni a meglévő típusokat. Ezzel a feladattal elsőként az NVIDIA készült el, és 2001 elején piacra dobta a harmadik GeForce generációt. A kizárólag felsőkategóriás típusokat felvonultató GF3-akat 1 évvel később már a hatékonyabb, és népszerűbb GF4-esek követték, melyek közül csak a Ti változatok rendelkeztek DX8-as képességekkel, míg az MX-ek csak DX7-et tudtak, ám azt minden korábbi típusnál gyorsabban és hatékonyabban. Az ATI a nyolcadik DirectX verzióhoz csak egyetlen generációt készített, méghozzá a Radeon 8500 alap, és butított LE változatát, melyek nagyjából a GF3 és a GF4 között félúton jelentek meg, és sebességben is ezt a szintet képviselték. Hozzá kell tenni ugyanakkor, hogy a későbbi Radeon 9000-es széria belépő típusai szintén a 8500-as butított változatai voltak, vagyis csak DX8 képességekkel rendelkeztek.

NVIDIA GeForce 3 Ti 500 / GeForce 4 Ti 4600 és ATI Radeon 8500

DirectX 9 korszak

A kilencedik DirectX verzióban elsősorban a korábban bevezetett shadereket tökéletesítették, melyek ezáltal sokkal szebb és élethűbb látványvilág létrehozását tették lehetővé a játékokban. A fókusz egyre inkább a shaderek sebességére tolódott át a korábban lényeges pixelkitöltési és textúrázási teljesítményhez képest. Az első DX9-es generáció volt az, ahol az ATI az első (és mindezidáig legnagyobb) ütést vitte be az NVIDIA-nak. Nem elég ugyanis, hogy a Radeon 9700 Pro fél évvel korábban debütált a 2003 elejére csúszó GeForce FX 5800-hoz képest, de sokkal gyorsabb is volt nála, és emellett fogyasztás és melegedés tekintetében is hatalmas volt az előnye, ami egy kulturált méretű hűtés alkalmazását tette lehetővé az FX-en alkalmazott, hajszárítónak csúfolt monstrummal szemben. Nem véletlen tehát, hogy az ATI rengeteg rajongót szerzett ebben az időszakban, míg az FX kártyákat az NVIDIA legnagyobb bukásaként tartja számon a közvélemény. Ráadásul, ami még fájóbb volt a zöldek számára, hogy a középkategóriában még ennél is nagyobb volt a lemaradásuk, ugyanis a meglehetősen vérszegény FX 5600-as és 5700-as típusokra köröket vertek a modern gyártási eljárással készülő, ezáltal minimális méretű hűtést igénylő Radeon 9600-as modellek.

ATI Radeon 9700 Pro és NVIDIA GeForce FX 5800 Ultra

2004-ben, a második DirectX 9-es generáció bemutatásakor fordult a kocka, hiszen az FX-fiaskó után az NVIDIA-nál jól tudták: ahhoz, hogy visszaszerezzék a vásárlók bizalmát, valami igazán ütős termékkel kell előállniuk. A 6-os GeForce széria fejlesztésekor ezért beleadtak apait-anyait, ami meg is látszott a végeredményen, ugyanis ezek a kártyák elsőként támogatták a DirectX 9c-ben bevezetett 3.0-ás Shader Modelt, emiatt technikai fölénybe került az ATI-val szemben, akik az előző generáció sikerét látva kissé elkényelmesedtek, így a Radeon X generáció a meglévő architektúra szélesítésén kívül nem sok újdonságot tartalmazott. A csúcskategóriában az X800-as, illetve később X850-es kártyák szerepeltek, melyek nyers teljesítményben ugyan felülmúlták a 6800-as GeForce-okat, ám az SM3.0 támogatás hiánya már a korabeli játékokban is eredményezhetett képminőségbeli korlátozásokat, a kártyák jövőtállóságán pedig sokat rontott ez a hiányosság. A középkategóriában ebben a generációban az NVIDIA kártyái bizonyultak erősebbnek, hiszen a GeForce 6600 GT ellen nem igazán rúgott labdába a Radeon X700-as modell, így inkább az erősebb X800-asok lebutított változatát kínálta az ATI ebben a szegmensben.

ATI Radeon X850 XT és NVIDIA GeForce 6800 Ultra

2005-ben, az utolsó DirectX 9-es generáció bemutatásakor ismét az ATI volt szorgalmasabb, hiszen az NVIDIA elégnek látta a sikeres GF6-os architektúra továbbfejlesztését, mely a GF7-es kártyák alapját adta. A Radeon X1000-es szériával azonban az ATI bepótolta az előző generációnál elmulasztott fejlesztéseket, és kisebbfajta forradalmat indított el. A legfontosabb újítás természetesen a 3.0-ás Shader modell támogatása volt, de emellett számos ponton megújították a GPU architektúrát. A széria modernebb modelljeinél szétválasztották a korábban pipeline formátumba kötött Pixel Shader - TMU párosokat, és több Shader egységet építettek a GPU-ba, ezáltal növelve a számítási kapacitást. A memóriabuszt is megreformálták, és a korábban használt lassabb, és sok vezetékelést igénylő Crossbar felépítés helyett kifejlesztették a hatékonyabb Ring Bus rendszert. Ezáltal a csúcskategóriában (az 1 GPU-s modelleket figyelembe véve) erősebbek voltak a Radeonok, ám a középkategória továbbra is az NVIDIA felségterülete maradt, hiszen az ATI által ebbe a szegmensbe készített vérszegény típusok nem tudtak labdába rúgni a kiemelkedően sikeres GeForce 7600 GT mellett.

ATI Radeon X1950 XTX és NVIDIA GeForce 7900 GTX

DirectX 10 korszak

A DirectX 10 bevezetése alighanem az eddigi legnagyobb változást hozta a VGA-k történetében, hiszen az új követelményeknek megfelelően alapjairól tervezték újra az egész GPU-t: a hagyományos pixel pipeline-ok helyét általános shaderek, úgynevezett Stream processzorok vették át. Ezek pixel és vertex shader funkciókat egyaránt el tudnak látni, így sokkal kiegyenlítettebb teljesítményt tud nyújtani a kártya minden körülmények között. Elsőnek az NVIDIA jelentkezett DX10-es kártyával, 2006 végén, és a 8800 GTX a sebességén kívül méreteivel, fogyasztásával, hőtermelésével, na meg nem utolsósorban árával egyaránt sokkolta a közvéleményt. Az ATI DX10-es startja ellenben nem sikerült túl fényesen, és a HD 2900 XT modellt sokan emlegetik az ATI GeForce FX-eként, hiszen hasonló problémákkal küszködött: jóval később jelent meg, mint az NVIDIA 8800 GTX kártyája, ennek ellenére lassabb volt annál, ráadásul jobban is melegedett. Az igazsághoz azonban hozzá tartozik, hogy bár maga a kártya nem volt sikeres, az architektúra, amit ezzel a szériával alapoztak meg, hosszú ideig kitartott. A középkategóriában sem volt sokkal jobb a helyzet, hiszen bár az NVIDIA sem készített ide túlságosan acélos modelleket, de a HD 2600-as kártyák még a 8600-as GeForce-oknál is gyengébben szerepeltek.

NVIDIA GeForce 8800 GTX és ATI Radeon HD 2900 XT

A 2008 folyamán megjelenő második DX10-es generáció mindkét gyártónál elsősorban az optimalizációról szólt, vagyis a drasztikus méretű és fogyasztású legelső DX10-es modelleket próbálták élhetőbb, és olcsóbban gyártható formára hozni. Az NVIDIA a hatalmas méretű G80-as GPU-t a nem sokkal gyorsabb, ám olcsóbb és népszerűbb G92-essel váltotta le a 9800 GTX modellen, míg az AMD által ekkoriban felvásárolt ATI nem készített újabb felsőkategóriás GPU-t, hanem inkább a középkategóriára koncentráltak, a csúcs GeForce-ok ellen pedig a dupla GPU-s 3870 X2-t indították. Ez persze csak addig lehetett sikeres módszer, amíg az NVIDIA is ki nem jött a 9800 GX2 modellel. Mondhatjuk, hogy a DirectX 10-es korszakban élték virágkorukat a Multi-GPU rendszerek, hiszen az AMD és az NVIDIA is kiemelten támogatta őket, sőt előbbi kifejezetten bennük látta a jövőt.

NVIDIA GeForce 9800 GX2 és AMD Radeon HD 3870 X2

A harmadik DX10-es generáció már igazi fejlesztéseket tartogatott. Az NVIDIA ismét egy hatalmas méretű GPU-t készített, mely a GTX 200-as széria felsőbb kategóriás modelljeinek alapját képezte. 512 bites memóriabusza igazi monstrummá tette, de mégsem vált belőle annyira sikeres termék, mint elődeiből, hiszen drága volt, és nem hozott akkora előrelépést a teljesítményben, mint ami várható lett volna. Ezzel szemben az ATI (illetve most már AMD) továbbra is viszonylag kis méretű, költséghatékonyan gyártható GPU-t tervezett a HD 4000-es generáció csúcsára, mellyel bevallottan nem kívánt versenyezni a csúcs GeForce-okkal, de a felső-középkategóriában kiemelkedő népszerűségre tettek szert a HD 4870 és 4850-es a típusok.

AMD Radeon HD 4870 és NVIDIA GeForce GTX 280

DirectX 11 korszak

A DirectX 11 nem volt olyan hatalmas előrelépés, mint elődei. Továbbfejlesztett effekteket tartalmazott, többek között a tesszelláció támogatása jelent meg, illetve a többszálú processzorok optimálisabb kihasználására törekedtek benne. Az első DX11-es generáció kifejlesztésének versenyét ezúttal az AMD nyerte, hiszen 2009 őszén, fél évvel hamarabb dobták piacra a HD 5000-es szériát, mint az NVIDIA a Fermi alapú GTX 480-as típust. Ez utóbbi egyébként kisebb mértékben ugyan, de újra eljátszotta a hányatott sorsú GeForce FX széria kálváriáját, hiszen késése ellenére nem tudott túl nagy teljesítményelőnyre szert tenni a konkurenciával szemben, és emellett rettentően melegedett is. A középkategóriában viszont népszerű volt a GTX 460-as típus, ezzel mentve kissé az NVIDIA becsületét.

AMD Radeon HD 5870 és NVIDIA GeForce GTX 480

A 2010 végén érkező második DX11-es generációban az NVIDIA a Fermi architektúrát reszelgette tovább, kiküszöbölve néhányat a 400-as GeForce széria gyerekbetegségei közül. Az új 500-as kártyák lényegében olyanok lettek, amilyennek már a 400-asoknak is kellett volna lenniük megjelenésükkor. Nem hoztak semmilyen drasztikus újdonságot, de kicsivel gyorsabbak voltak, és emellett kevésbé melegedtek elődeiknél, így használhatóságuk sokat javult. Az AMD eközben egy félig-meddig zsákutcának tekinthető fejlesztésbe fogott a csúcskategóriás Cayman kódnevű GPU-val, mely ugyan természetesen erősebb lett elődjénél, ám a vörös oldalon is képbe hozta a drasztikus melegedés problémáját. A középkategóriában viszont különösen népszerűek voltak a HD 6850 és 6870 típusok, így mindkét gyártó ereje teljében érezhette magát.

AMD Radeon HD 6970 és NVIDIA GeForce GTX 580

DirectX 12 korszak

Ezzel pedig elérkeztünk arra a pontra, ahol a jelenlegi cikk felveszi a fonalat, vagyis 2012-be, a harmadik DX11-es generációhoz. Az előző írásban a legerősebb kártyák voltak a 600-as GeForce széria tagjai, szorosan a nyomukban a Radeon HD 7000-es generációval. Most viszont ők lesznek a leggyengébbek, a mezőny hátuljába fognak tartozni. Érdekes lesz látni, hogy a megjelenésükkor még nem is létező DirectX 12-vel hogyan birkóznak meg, mindkét szériára jellemző ugyanis, hogy bár DX11-es típusként látták meg a napvilágot, de utólag megkapták a DX12 támogatást. Az aktuálisan legfrissebb DirectX verziót egyébként egy be nem váltott ígéretnek tartom. Annak idején, megjelenésekor hatalmas hype övezte, a legnagyobb forradalomként emlegették a 3D gyorsítás történetében. Anélkül, hogy a technikai oldalt túlságosan boncolgatnánk (hiszen ennek a cikknek ez nem célja), annyit érdemes róla tudni, hogy a GPU-k alacsonyabb szintű programozhatóságát tette lehetővé a játékfejlesztők számára, csökkentve ezzel az egyre bonyolultabbá váló driverek okozta késleltetést. A valóságban azonban nem sok teljesítményelőnyt hozott (sőt olyan is előfordult, hogy a DX12-es mód lassabban futott a hagyományos változatnál), és a látványbeli különbség is észrevehetetlen volt a DX11-hez képest. Emellett az sem segítette a terjedését, hogy a Microsoft a Windows 10-es operációs rendszerhez kötötte az alkalmazhatóságát, márpedig sokan nem szívesen váltottak emiatt a jól bevált Windows 7-ről. Ennek ellenére ez a jövő (vagyis inkább most már a jelen), így a mostani tesztben már szép számban fognak szerepelni DX12-es mérések is.

A cikk még nem ért véget, kérlek, lapozz!

Azóta történt

Előzmények