Legutóbb ott hagytuk abba, hogy a 2003 tavaszán bemutatkozó FX-széria csúfos kudarcnak bizonyult, és a kártyák gyér teljesítménye miatt a cég renoméja alaposan megkopott, mi több, az ATI a fejére nőtt, így az NVIDIA elvesztette piaci elsőségét. A folytatással kapcsolatos elvárások hatalmasak voltak, a zöldeknek alaposan össze kellett szedniük magukat, amit szerencsére meg is tettek.
A feltámadás: a Geforce 6-7 széria
Az új sorozat fejlesztésébe kellő pénzt és energiát öltek a vezetők, illetve mérnökök. Szakítottak az FX elnevezéssel, az új típusok négy számjegyű jelzést kaptak. Az elsőként bemutatkozó GeForce 6800 széria 2004 tavaszán elsőként támogatta a DirectX 9c-ben bevezetett Shader Model 3.0-t, így könnyűszerrel magáénak tudhatta a technikai fölényt az ATI-val szemben. Az már más lapra tartozik, hogy a játékok többsége akkoriban ezt nem használta ki. A GPU-t is alaposan újratervezték: 16x1-es felépítésű pipeline-nal és 6 vertex shaderrel vértezték fel, a memóriabusz már elengedhetetlenül 256 bites volt. A kártyák elsőként kaptak GDDR3-as memóriamodulokat, később pedig nem csak AGP-s változatokat lehetett kapni, hanem PCI Expresseseket is. A csúcsot a GeForce 6800 Ultra képviselte, ám az árérzékenyeknek be kellett érniük a csökkentett órajelű és ezáltal kisebb hűtővel szerelt 6800 GT-vel. Az utótag nélküli 6800-asok csak 128 MB-os DDR1 memóriákat kaptak 256 MB DDR3 helyett, és letiltottak bennük 4 pixel pipeline-t és egy vertex shadert, de azokat szoftveresen -- egy Rivatuner programmal -- utólag élesíteni lehetett.
A GeForce 6600 GT az FX utáni csalódást
enyhíteni képes első Nvidia-kártya volt
A középkategóriában a GeForce 6600 GT hatalmas népszerűségnek örvendett (jelen sorok írójának is volt egy ilyenje, mivel nem akart lemaradni a Battlefield 2 maximális szépségéről, és a GeForce 4 Ti 4200-a már bőven elérte a nyugdíjkorhatárt). A 8 pipeline-os GPU mellett csupán 128 bites memóriabusszal szerelték, viszont megkapta a nagytestvér GDDR3-as memóriamoduljait, hovatovább a fejlettebb gyártástechnológiának köszönhetően órajele 500 MHz-en ketyeget, ami magasabb volt a 6800 Ultráénál is. A cég az alsóbb szegmensbe pozícionálta a sima 6600-at és a 6200-at -- ez utóbbi szintén letiltott részegységekkel rendelkezett, de a későbbi modellekben már szoftveresen sem tudtuk kikerülni a butítást. A PCI Express bevezetésével lehetőség nyílt két videokártyát összekötni SLI-ben, amit korábban csak a 3dfx tett lehetővé a Voodoo2-es kártyákon. A sorozat életútjának végén megjelenő GeForce 6800 GS és XT már támogatta a natív PCI Expresst és fizikailag is 14 pipeline-t tartalmazott, így nem lehetett szoftveresen felhúzni.
A 2005 nyarán érkező GeForce 7 széria abszolút időhúzásnak számított, hiszen az előző sorozat feljavított változatairól van szó. Érdekesség, hogy a Sony az NVIDIA-val közösen fejlesztette ki a PlayStation 3 grafikuschipjét, amely voltaképpen egy GeForce 7800-ra épül. Itt jelentek meg elsőként a csúcskategóriát képviselő GTX modellek, s bár a zöldek Ultra modelleket is terveztek, végül lemondtak róluk. A GeForce 7800 GTX már 24 pixel pipeline-t és 8 vertex shadert kapott, a középkategóriás 7600 GT pedig teljesítményben hasonló volt a korábbi 6800-as sorozathoz. Minden szegmensben léteztek butított változatok, melyek GS utótagot kaptak. Az SLI technológiát továbbgondolták a mérnökök, bemutatkozott a Quad-SLI technológia, azaz már négy VGA-t is össze tudtunk kötni, ha volt rá elegendő pénzünk.
Az Nvidia GeForce 7800 GTX nem volt olcsó mulatság,
még akkor sem, ha egy kevésbé elismert gyártótól vettük
A DX10 térnyerése: a GeForce 8-9 széria
2006 novemberében köszöntött be a DirectX 10-es korszak, ennek megfelelően az NVIDIA is előállt a technológiát támogató kártyákkal, amik alapos újratervezésen estek át. A pixel pipeline-okat felváltották az általános shaderek és a stream processzorok, amelyek pixel és vertex shader funkciókat is betöltöttek, ami a VGA-k kiegyensúlyozott teljesítményén is megmutatkozott. A teljesítményadatokat immáron a stream processzorok, a TMU és a ROP egységek száma befolyásolja -- mind a mai napig. A csúcsmodell, a 128 stream processzorral rendelkező GeForce 8800 GTX hatalmas jószág volt, sokat fogyasztott, iszonyatos hőt termelt és mélyen a zsebünkbe kellett nyúlnunk érte. A GTX mellett kapható volt egy GTS utótaggal ellátott változat, ami csak 96 stream processzort tartalmazott, de ez is bőven elég volt a kor játékainak futtatásához -- a S.T.A.L.K.E.R.: Shadow of Chernobyl például remekül érezte magát vele. Sajnos a középkategória példányai -- a 8600 GTS és GT, valamint a 8500 GT -- már nem voltak ennyire kedvelhetők: a 32 vagy 12 stream processzor iszonyúan kevésnek bizonyult, valamint a 128 bites memóriabusz elég gyérnek számított. A széria életciklusának végén jöttek a finomított, kedvező árú modellek, a 8800 GT és a 8800 GTS -- a profibb gyártástechnológia és a 112, illetve 128 stream processzor meghálálta magát, nem egyszer a GTX-et is megszorongatták. A GS modellekre nem is érdemes szót fecsérelni azon kívül, hogy lassúak -- csak pár ezerrel kerültek többe a GT-k, így mindenképpen azokat volt érdemes választani. 2007 májusára befutott az újabb király, a 8800 Ultra, még nagyobb teljesítménnyel, még nagyobb fogyasztással és melegedéssel, pofátlanul magas árcédula mellett.
Az Nvidia GeForce 8800 GT ugyanolyan népszerű VGA volt,
mint a 6600 a maga idejében, sokunk játszott ilyen kártyán
Az ATI időközben egy helyben topogott, az NVIDIA-nak pedig volt ideje tökéletesítenie a GeForce 8800 GT-ben és GTS-ben debütáló GPU-t, amit a 2008 tavaszán bemutatkozó GeForce 9800 GTX is használt. Csupán az órajelben mutatkozott némi különbség az új széria javára, de a 9800 GT szinte ugyanaz volt, mint a 8800 GT, csak a számozásban tért el tőle. Közben jött egy gyorsabb csúcsmodell a 9800 GTX+ személyében, illetve beköszöntött a több GPU-s kártyák kora a két grafikusmaggal felszerelt 9800 GX2-vel. A zöldek végre tökéletesítették a középkategóriát is: a GeForce 7600 GT már 64 stream processzort és 256 bites memóriabuszt kapott, így jóval használhatóbbak voltak ebben a szegmensben. Nem úgy a többi típus: a 8600-asok 9500 GT, míg a 8500 GT-k 9400 GT néven futottak nulla változtatás mellett, ami az NVIDIA felháborító hozzáállásáról tanúskodott. Könnyen összezavarodhatott a tisztelt játékos, ha nem informálódott a vásárlás előtt.
Változó teljesítmény: a GeForce 200 széria
A már amúgy is keszekusza típusjelzéseket az NVIDIA nem hagyta figyelmen kívül a tizedik generációban: előre kerültek a GT, GTS és GTX jelölések, majd jöttek az adott generációra utaló számsorok, így a játékosok tutira nem zavarodtak össze. A DirectX 10.1-kompatibilis GT200 kódnevű grafikuschippel szerelt GeForce GTX 280 2008 júniusában landolt a boltokban, 240 stream processzorral, 1024 MB DDR3 memóriával, ami elavultnak tűnhet, de az 512 bites memóriabusz kellő sávszélességet biztosított. A középkategóriába szánt GTX 260 192 stream processzort tartalmazott 448 bites memóriabusszal és 896 MB memóriával -- kedvező ára és jó teljesítménye miatt nagy népszerűségre tett szert.
Az Nvidia GeForce GTX 260 nem váltotta meg a világot,
de jó áron kínált megfelelő teljesítményt
Ez a GPU is átesett a kötelező gyártástechnológiai finomításon, aminek meg is lett az eredménye a nagyobb órajelre és kevesebb fogyasztásra képes GTX 285 képében, de kaptunk egy kétmagos GTX 295-öt is. A középkategóriában még mindig a GeForce 8800 GTS-t versenyeztette a cég -- ha jól számoljuk, már harmadszor nevezték át, ezúttal GTS 250 néven futott. Az alsóbb kategóriák teljesítményük révén nem nagyon rúgtak labdába, igaz, natív HDMI-kimenetük révén közkedveltek voltak a médiacentert építő felhasználóknál.
Beköszönt a DX11: A Geforce 400-500 sorozat
A 300-as széria csak az OEM-piacon volt fellelhető, nem sokban különböztek az előző szériától, nem is futottak sokáig, a zöldek inkább az új technológiára koncentráltak. A GeForce 400-as sorozatot 2010 márciusában kaptunk meg. A cég első DirectX 11-es generációjaként vonult be a köztudatba és Fermi architektúrát használt. A két csúcsmodellt, a GTX 480-at és 470-et rengeteg olyan extra szolgáltatással felvértezték, amelyek a játékosok többségét hidegen hagyták. A teljesítmény szempontjából persze fejlődött a cucc: a GeForce GTX 480-at stílszerűen 480 stream processzorral szerelték, memóriabusza 382 bites volt, melléjük 1536 MB DDR5 memória társult. A GTX 470 már csak 448 stream processzort és 320 bites memóriabuszt kapott némileg kisebb órajel és kevesebb memória mellett. Sajnos ez sem volt elég a Radeon 5000-sek ellen, a féléves lemaradás megtette a hatását. Ám a középkategóriába szánt GTX 465 (352 stream processzor, 256 bites memóriabusz és 1024 MB memória) valójában túl drága volt, nem is rajongtak érte a vásárlók. Nem úgy a GTX 460-ért, ami felesleges szolgáltatások nélküli, kisebb előállítási költséggel rendelkező termékként közkedveltnek bizonyult. A kártya 336 stream processzora, 256 vagy 192 bites memóriabusza és legalább 1024 MB memóriája tisztességes teljesítményt produkált a slágerjátékokban.
Az Nvidia GeForce GTX 480 megint elmaradt a
konkurens ATI terméke mögött
A felállás a szokásos: a nagy változásokat hozó széria után egy finomított, a meglévő technológiát tökéletesítő sorozat következett. A család első üdvöskéje a 2010 végén megjelent GeForce GTX 580, ami nem csupán gyorsabb, de halkabb és kevésbé melegedő modellként vonult a köztudatba, s ami a legfőbb, legyőzte az ATI akkori csúcsmodelljét, a Radeon HD 6970-et is. Innovációt hiába is keresnénk az 500-as sorozatban, nem találunk ilyet, viszont optimalizálást annál inkább. A középkategóriába visszatértek a GeForce 4-korszakra jellemző Titanium elnevezések, a GTX 460 alapjaira építkező erősebb modell, a GeForce GTX 560 Ti ismét a sebességőrült játékosok egyik kedvenc példánya lett. Újra kaptunk egy dupla GPU-s szörnyeteget a GTX 590 képében, s azon szerencsések, akiknek kettő is lapult a gépében, elképesztő teljesítményt kaptak cserébe (és persze horribilis villanyszámlát a hónap elején).
A jelen: a GeForce 600-700 sorozat
Minden páros széria rengeteg újdonságot hoz magával. Így van ez a 2012 tavaszán bemutatkozó GeForce 600-as sorozattal is, amely a Kepler architektúrára épül A legszembetűnőbb változás a GPU mérete: a chip jóval kisebb a fermis modelleknél, ennek ellenére a GTX 680 1536 stream processzora háromszorosa a GTX 580-ban található mennyiségnek, bár ez önmagában nem jelent teljesítményszorzót. A memóriabusz maradt 256 bites, ami már érezhetően visszafogta a GDDR 5-ös memóriát. A közép-felsőkategóriát képviselő GTX 670 visszafogottabb specifikációja sem volt vészes, és árát is sikerült elfogadható szinten tartani. A középkategóriában már volt egy kis csavar: a GTX 660 Ti lényegében egy csökkentett memóriabuszú GTX 670, minimális különbség van közte és a nagytestvér között, ellenben az utótag nélküli GTX 660 csak 192 bites memóriabuszra épül, így teljesítménye jóval visszafogottabb. A GTX 550 Ti és GTX 550 között is hasonló űr tátong. A széria elmaradhatatlan kétmagos szörnye GTX 590 névre hallgat, szokás szerint aranyáron mérik.
Akinek nem volt sok pénze, az az Nvidia GeForce GTX 660 Ti
mellett tette le a voksát a GTX 670 helyett
Lassan el is érkezünk a mához. 2013 februárjában az NVIDIA ismét egy köztes szériával állt elő, a GeForce 700-asok a Kepler finomított architektúráját használják, s már támogatják a DirectX 11.1-et.. A szokásos GTX 750, 760, 770. 780-modellek is elérhetők, de az igazi csak ezután jön. A csúcskategória a GeForce GTX Titannal kezdődik, de a céggel elszaladt a ló, és egymás után mutatták be brutálisabbnál brutálisabb szörnyetegeket. Ilyen a GTX Titan Black és a pár napja beköszönt GTX Titan Z. Elsőként a szimpla GTX Titan landolt a boltokban, s azon nyomban átvette a világ leggyorsabb videokártyája címet a Radeon HD 7970 GHz Editiontől. A kártya memóriabusza 384 bites, 2688 stream processzor dolgozik alatta, míg a GPU 837 MHz-es -- mindezek mellé 6 GB GDDR5 memória társul. A Black utótagú változat már 980 MHz-en ketyeg, 295 ezer forintos ára riasztó lehet, de cserébe nem kell kompromisszumot kötnünk. A két GPU-s GeForce GTX Titan Z viszonylag friss monstrum, 2014 márciusában leplezték le, gyakorlatilag két Titan Black teljesítményét hozza egyetlen kártyán, és nagyjából 675 ezer forintért haza is vihetjük.
Nvidia GeForce GTX Titan Z - 670 ezer forintos videokártya a jövőből.
Ki vesz mindjárt négyet, SLI-be?
Mit hoz a jövő?
A konzolok és a PC-k technológiai szempontból sokkal közelebb kerülnek egymáshoz, és végre a gyártók is rájöttek arra, hogy a DirectX és az OpenGL API korlátai nagyban visszafogják a teljesítményt. Az ATI már elő is állt a Mantle névre hallgató megoldással, amiből a GCN architektúrás Radeonok profitálhatnak. A Mantle egy, az új generációs konzolok API-jához hasonlóan alacsony szintű hozzáférést biztosít a hardverhez, ami másodpercenként kilencszer több rajzolási parancs kezelésére képes, mint a korábbi DirectX és az OpenGL.
Értelemszerűen az NVIDIA sem akar kimaradni a jóból, a cég a Microsoft-féle DirectX 12-t részesíti előnyben és nagyjából ugyanazt kínálja, mint a Mantle: a többletterhelés csökkentését és a hardver feletti kontrol kiterjesztését, amire a fejlesztők már régóta ácsingóznak. Nem csak PC-ken terjed el a DX12, hanem mobileszközökön is, a használatához ráadásul nem kell új videokártyát vásárolnunk -- már a GeForce 600-as sorozat is kompatibilis lesz az új API-val. Az NVIDIA addig sem ül a babérjain: 2014 végén jön a Maxwell architektúrás GeForce 800 sorozat, integrált ARM processzorral, továbbfejlesztett grafikai képességekkel, egyszerűbb programozhatással és jobb energiahatékonysággal. Kiváló korban élünk, nemde?