A PowerPoint 2003-as programnál újabban néhány bemutatónak (pps) nincs hangja. Ugyanez a program fut egy másik gépen, ahol van hang. Milyen beállítási, vagy egyéb hiba lehet, tavaly is készítettem pps-t, akkor a zenét, amit felpakoltam rá lehetett hallani.
Idén is próbálkoztam pps-sel, de a zene senkinél nem ment át, mi történt???
Köszi előre is, már annyi helyen kérdeztem, de válasz sajnos
Abu85: Kéne egy kis segítség. Akkor most van egy 8600GTS-em MSI K9N SLI Platinum alaplapban. Ha majd veszek még 1 8600GTS-t akkor ez a mostani felállás szerint mennyire lesz jó? Azért gondoltam SLI-re mert majd megy le az ára és akkor olcsóbb lesz az SLI nekem mint egy új kari. Szóval ebben kéne segítség, hogy megéri-e meg mennyire lesz jó?
sziasztok! nekem egy Sapphire Radeon X1650pro vga-m van. Vettem hozzá egy Accelero S2-es hűtő bordát simán felrakhatom rá vagy le kell szednem a vga-ról a ventilátort???
Ami gyárilag rajta van a vga-n.
De akkor miért van az hogy a Crysis tesztekben a 8800GT legalább 20-30%-al gyorsabb mint a 3870? Én maximálisan ATI párti vagyok de lehet hogy inkább megérné beruháznom 5k-val többet egy 8800GT-re mint egy 3870-re. Vagy talán megvárni a 8800GS-t és abból venni egy 512megásat, ami valszeg a 3850-től valamelyest gyorsabbnak várható, igaz ki tudja mennyi lesz az ára.
A Crysis az utóbbi időben sok vitának alapja volt, de szerintem az élő példa, hogy jelenleg rossz irányba tartunk.
Röviden összefoglalva az egész történet ott kezdődik, hogy MS kifejlesztette a DX10-et, annak követelményeit teljesítette az nV, viszont megfelelő sebességet nem képes magából kiadni az architektúra. Az MS megpróbált most korrigálni a DX10.1-el, amit az nV leszart, sok GF8 lett eladva most már nekik is van hatalmuk. Nem tudom emlékeztek-e még a DX10 elötti időszakra, hogy az nV ontotta magából, hogy a Unified Shader hülyeség, a GF8 nem is támogatja úgy az elképzelést ahogy azt az MS elgondolta.
A Crysis esetében sokat gyorsíthatnak a DX10-es technikák, például néhány frame erjéig el lehetne menteni a Stream outputba a geometria adatait, ezt új frame esetén azonnal vissza lehetne tölteni és nem kellene előröl kezdeni a teljes számítást, ez már önmagában jó pár százalék a gyorsulás, hiszen találtunk egy olyan területet amit elég lenne teszem azt 15 frame-nként leszámolni egyszer (ugye most minden frame esetében újra lesz számolva). És ez csak egy újdonság a lehetőségekből. El lehet gondolkodni rajta.
Amúgy sokat hallom, hogy a legtöbb "külföldi újságíró" a Microsoft-ot hibáztatja a problémákért. Nem szoktam ilyet tenni, de az MS most az egyszer jót akart. Szerintem már a DX9 kiadásakor látták az MS szakemberei, hogy ha így halad a fejlődés tovább akkor a GPU-k nagyon függeni fognak a memóriától, és az egész feldolgozás lassú lesz, mert nagyon sokat kell várni az adatra. Nyilván a Texture-fetch-et nem lehet teljesen mellőzni, de minimálisra lehet a szükségességét csökkenteni. Sokkal jobb megoldás ha a rendszerek számítási teljesítményét használjuk. A DX10 olyan megoldásokat keres amivel jobban ki lehet használni a GPU-k számítási teljesítményét. A DX10 a Xenos-ban lett lényegében élesben tesztelve. Az erre alapuló R600 az első gyakorlatilag is Unified Shader rendszer, az architektúra előnye, hogy az összes Shader proci képes írni az R/W memory cache nevű átmeneti tárba ahol lehet tárolni a Stream output-ot. A ténylegesen DX10-es programokban elég kevés a Radeon ellen a GF esélye. Maximum Pure Pixel Shader kódban lehet keresni valója. A DX10.1 burkoltan azt szorgalmazná, hogy az nV tényleg építsen DX10-es rendszert. Nyilván a támogatás hiánya sem véletlen marad el. Ugye az új API-ban van egy-két kifelyezetten kínos pont a G80 számára. A Cube map tömb például nem jelent komoly problémát az R670-nek, mert ott a R/W memory cache amiben viszonylag gyorsan lehet kezelni a Stream output-ot. A Cube map tömbök nagyon sok adatot mentenek ki, a G80-nál ott a probléma, hogy a teljes TCP blokk-ban nincs annyi regiszter és cache ami ezeket az adatokat tárolná. Gyakorlatilag mindent a memóriába kellene menteni ami kicsit vicces helyzetet teremtene, mivel egy utasítás közel 100 órajelbe telne a TCP-nek az elérési idő miatt (a Radeon meg vígan órajelenként dolgozik). A másik kínos pont a Gather4 ami olyan TMU-t követel amilyen van az R600-nak. Tehát 4 mintavételezőhöz tartozna egy szűrő. Ezzel egyértelműen a textúraszűrők számának csökkentése lenne a célja az MS-nek, mert tök felesleges teszem azt a 8800GT-ben 56-ot tartani 50GB/sec-es sávszél mellett. Ha még azt is hozzávesszük, hogy lebegőpontos szűrés mellett "half speed" a G92 elméleti Fill-Rate-je akkor még nagyobb pazarlásnak tűnik.
Az MS abban sem hibás, hogy nem adták ki időben az új API-t, szvsz pont jókor adta ki a DX10-et. A Crysis speciel most jelent meg, tehát bőven lett volna idő az sebeségnövelő újdonságokat beépíteni. Ez lett volna az API célja, csak nem úgy sültek el a dolgok ahogy a Redmondiak gondolták.
Az egészben az a vicc, hogy mindenki az nV-t magasztalja, hogy milyen jól teljesít a GF8, közben meg gyakorlatilag miattuk szopunk.
Speciel a Crysis DX10 támogatása a r_UseGSParticles és a d3d10_CBUpdateMethod parancsban kimerül. Totálisan DX9 a rendszer. A megjelenítet képnél vegyük alapnak a Very High grafikát. A felületek többségén ott a Parallax Occlusion Mapping (normal map + high map + számítás - kártya legyen a talpán ami elvégzi), minden növény éldetektálással szűrve van, így nem lesznek recések (gyakorlatilag ez egy kis élsímítés a programba építve, csak jobb eredményt ad - MSAA ezzel nem kompatibilis, így néha rondább a képminőség MSAA használatával), a teljes árnyékolási rendszer real-time, és azok az átkozott felhők is komplex 3D-s objektumok, az összes árnyék soft az összes képernyőn megjelenő objektumon Percentage Closer Filterrel szűrve, post process effektek is sokat esznek (motion-blur, napsugarak).
Min lehetne változtatni? Például a Parallax Occlusion Mapping helyett már jöhetne a Displacement mapping is. Ezt valamivel gyorsabban le lehet képezni Geometry Shader alapú eljárásokkal.
Az Crysis optimalizálása ha nem is példás, de a mai világban bőven elfogadható mértékű lett. A motor felépítésének elveivel van probléma, egy-egy eljárásra már a DX10 kínál jelentősen gyorsabb megoldást is (csak a GF8 azzal nem látszana ásznak).
Az is látszik, hogy mindenhol megpróbálták a legszebb eljárást használni, gyakorlatilag trükkök és komolyabb kompromisszumok nélkül.
Az elöttünk álló egy év nagyon durva lesz, aki tényleg komolyabb grafikai részletességet szeretne, játszható szinten annak mindenképp egy Crossfire vagy SLI rendszert ajánlok. Nem véletlen, hogy a gyártók hozzák ki a többchipes kártyákat. A játékok gépigényei az egeket fogják verdesni, de addig nem lehet semmit tenni amíg az nV ki nem adja az új architektúráját.
A 8800gt, azárt jobb, ert a felépítése jobb az atiénál. Ezt a kérdést az Atinál is felvetették a 2900xt és 8800gtxnél, egyszerű a válasz, az Ati gyengébb, és manapság már irodai alkalmazások ,renderelésre használják leginkább kártyáit.
Sajnos az egyértelmű hogy teljesítményben az ATI nem bírja most az Nv-vel, hisz a 8800Ultra már rég vezet messze. Az igazat megvallva viszont ez nem is olyan nagy baj, így legalább az Nv is többet figyel a közép felsőközép kategóriás kártyáira. A gáz, hogy a 3870 alig olcsóbb, inkább inkább paliban van árban a 8800GT-vel, viszont érezhetően lassabb, én személy szerint örülnék egy HD3870 áresésnek.
Mindenesetre jó hogy az ATI részéről leállt ez a telejsítményharc-legalábbis egy időre- és nem jelennek meg olyan versenyek mint a 9700 vs. 4800, 9800 vs 5900, stb volt. Ezek a kártyák a maguk idejében nagyon gyorsak voltak, gyorsabbak mint az akkori vagy nem sokkal később megjelenő játékokhoz kellett volna, a később megjelenő játékok meg már nem a teljesítmény hiánya, hanem inkább az akkor már fejlettebb GPU-t igénylő effektek (pl sm. 3.0 támogatás) miatt el sem indultak rajtuk.
Az meg hogy gyenge és renderelésre használják egy kicsit azért ellentmondásos, hisz a rendereléshez kell a legnagyobb, leggyorsabb erőforrás-irodai célra meg mindegy mi van a gépben a mai kártyák közzül.
Renderelésre egyébként ATI részről a FireGL, Nv részről a Quadro család ami mérvadó. Ezekben is pont olyan GPU-k dolgoznak mint a radeon és geforce kártyákon csak más BIOS-al és az áruk is csillagászati.
A 8800gt, azárt jobb, ert a felépítése jobb az atiénál. Ezt a kérdést az Atinál is felvetették a 2900xt és 8800gtxnél, egyszerű a válasz, az Ati gyengébb, és manapság már irodai alkalmazások ,renderelésre használják leginkább kártyáit.
Nem állítottam, hogy az 512MB az 256MB, de a mai Radeon rendszereknél pusztán a memória méretének jelentősége csökkent.
A DX10 ugye főleg a számítási képességekre helyezik a hangsúlyt, arra törekszik a rendszer, hogy minimalizálja a texture fetch-ek számát, ezért például egyes LUT texturát igénylő eljárások helyett, inkább nyers shader erőt lehet bevetni. Az SM4.0 lehetőséget ad már igen komoly shader programok írására, így a fejlesztők is egyre kevesebb olyan megoldást választanak majd amihez texture fetch szükséges.
A jelenben a GF8 jelentősen hátráltatja a fejlődést. A Crysis az első játék aminek grafikája úgymond szintlépés, viszont az eljárások DX9-re épülnek ami nagyon lassúvá teszi a rendszer működését, még akkor is ha a motor jól optimalizált. Azért lettek bevezetve a DX10 újdonságai, hogy gyorsítsák az egyes eljárások sebességét. A fejlesztők nagyon nehéz helyzetben vannak, mert a GF8 egyes DX10 eljárásokkal teljesen használhatatlan sebeséget probukál, így jelenleg ezek nem építhetők be (illetve beépíthetők csak a GF8 tulajdonosok nem fognak neki örülni). Például ott a Call Of Juarez, gyakorlatilag az egyetlen játék ami ha minimálisan is, de már sok helyen használ DX10-et. Az 1.3-as patch-el mindkét GPU család optimalizálást kapott (illetve kiütötték az nV driverek "alkalmazás specifikus optimalizációit", ami ugye meggátolta az extra quality opció és az SBAA bekapcsolását). Jelenleg ott tart a dolog, hogy a HD3850 256MB-os sok helyen jobban teljesít a Top GF8Ultra-nál is. AA bekapcsolása esetén már nem ilyen virgonc a kicsike, de a 8800GT/GTX akkor is megvan. Nyilván az erősebb Radeonok még gyorsabbak. Mivel az nV nem rendelkezik úgymond gyakorlatban is használható DX10 hardverrel, az elkövetkező időkben (a Crysis eladási adatait fegyelembe véve) inkább visszafogják a játék grafikáját. Persze lesznek kivételek 2008-ban is, a Far Cry 2 például nem lesz gyenge grafikájú, de nem használható itt sem a DX10 főbb újdonságai, így komolyabb grafikai szinthez Crossfire vagy SLI rendszer kell majd. Pletyik szerint durvább a gépigénye, mint a Crysis-nak.
Változás majd akkor lesz, ha itt lesz a DX10.1 kompatibilis GF, ami már vélhetőleg új architektúra lesz. Ilyenkor már lehet használni a DX10 újdonságait is. A GF8/9 ugyan mehet majd falidísznek, de mindenképp előrelépünk az alkalmazott eljárások sebessége terén.
De akkor miért van az hogy a Crysis tesztekben a 8800GT legalább 20-30%-al gyorsabb mint a 3870? Én maximálisan ATI párti vagyok de lehet hogy inkább megérné beruháznom 5k-val többet egy 8800GT-re mint egy 3870-re. Vagy talán megvárni a 8800GS-t és abból venni egy 512megásat, ami valszeg a 3850-től valamelyest gyorsabbnak várható, igaz ki tudja mennyi lesz az ára.
Abu85 írta:
A programok videomemória igénye sem nő a közeljövőben komolyabb mértékben, túlságosan vissza van fogva a GF8 lehetőségei miatt a fejlődés.
Sajnos nem értem mit értessz ez alatt a mondat alatt. Kifejtenéd bővebben?
Az, hogy a ringbus talán helytakarékosabb meglehet, de nem csinál a 256M-ből 512Megát.
Nem állítottam, hogy az 512MB az 256MB, de a mai Radeon rendszereknél pusztán a memória méretének jelentősége csökkent.
A DX10 ugye főleg a számítási képességekre helyezik a hangsúlyt, arra törekszik a rendszer, hogy minimalizálja a texture fetch-ek számát, ezért például egyes LUT texturát igénylő eljárások helyett, inkább nyers shader erőt lehet bevetni. Az SM4.0 lehetőséget ad már igen komoly shader programok írására, így a fejlesztők is egyre kevesebb olyan megoldást választanak majd amihez texture fetch szükséges.
A jelenben a GF8 jelentősen hátráltatja a fejlődést. A Crysis az első játék aminek grafikája úgymond szintlépés, viszont az eljárások DX9-re épülnek ami nagyon lassúvá teszi a rendszer működését, még akkor is ha a motor jól optimalizált. Azért lettek bevezetve a DX10 újdonságai, hogy gyorsítsák az egyes eljárások sebességét. A fejlesztők nagyon nehéz helyzetben vannak, mert a GF8 egyes DX10 eljárásokkal teljesen használhatatlan sebeséget probukál, így jelenleg ezek nem építhetők be (illetve beépíthetők csak a GF8 tulajdonosok nem fognak neki örülni). Például ott a Call Of Juarez, gyakorlatilag az egyetlen játék ami ha minimálisan is, de már sok helyen használ DX10-et. Az 1.3-as patch-el mindkét GPU család optimalizálást kapott (illetve kiütötték az nV driverek "alkalmazás specifikus optimalizációit", ami ugye meggátolta az extra quality opció és az SBAA bekapcsolását). Jelenleg ott tart a dolog, hogy a HD3850 256MB-os sok helyen jobban teljesít a Top GF8Ultra-nál is. AA bekapcsolása esetén már nem ilyen virgonc a kicsike, de a 8800GT/GTX akkor is megvan. Nyilván az erősebb Radeonok még gyorsabbak. Mivel az nV nem rendelkezik úgymond gyakorlatban is használható DX10 hardverrel, az elkövetkező időkben (a Crysis eladási adatait fegyelembe véve) inkább visszafogják a játék grafikáját. Persze lesznek kivételek 2008-ban is, a Far Cry 2 például nem lesz gyenge grafikájú, de nem használható itt sem a DX10 főbb újdonságai, így komolyabb grafikai szinthez Crossfire vagy SLI rendszer kell majd. Pletyik szerint durvább a gépigénye, mint a Crysis-nak.
Változás majd akkor lesz, ha itt lesz a DX10.1 kompatibilis GF, ami már vélhetőleg új architektúra lesz. Ilyenkor már lehet használni a DX10 újdonságait is. A GF8/9 ugyan mehet majd falidísznek, de mindenképp előrelépünk az alkalmazott eljárások sebessége terén.
Szerintetek érdemes várni a 8800GS, vagy a 9600 (nem ati hanem NV ) megjelenésére? Igazán hihető tesztet nem láttam még egyikről sem, a GS kevesebb számolóegységet fog tartalmazni mint a GT, viszont ahol láttam a specifikációit ott magasabb órajeleket írtak rá.
A Ringbus ennél azért jóval többet tesz. Eleve célszerű elkülöníteni az x1000 széria úgymond CrossRing és az R600 teljesen önálló egységekből felépített rendszerét. Az R5xx GPU-knál még központilag volt működtetve a vezérlő, míg az R600-ban a memóriarészek vezérlését a hozzájuk tartozó Ringstop-ok látják el.
Én nem mondanám, hogy tipikusan alacsony a késleltetés a Ring vezérlőnél. A Crossbar PP kapcsolatot használ minden render kimenethez, míg a Ringbus esetében akár egy megálló is közbesehet a fetch befejeztéig.
A Ring inkább az helytakarékossága és a vezérlés pontossága miatt van használatban. A 4 vagy ennél többcsatornás Crossbar esetében sokszor előfordulhat, hogy egyes textúrák beragadnak a memóriába, így a texture fetch akár komolyabb időveszteséget is elkönyvelhet.
A GeForce esetében szükséges egy felső-középkategóriás rendszernek az 512MB memória, a hasonló kategóriás Radeonra nem feltétlen kell.
A programok videomemória igénye sem nő a közeljövőben komolyabb mértékben, túlságosan vissza van fogva a GF8 lehetőségei miatt a fejlődés.
Abu85 írta:
A programok videomemória igénye sem nő a közeljövőben komolyabb mértékben, túlságosan vissza van fogva a GF8 lehetőségei miatt a fejlődés.
Sajnos nem értem mit értessz ez alatt a mondat alatt. Kifejtenéd bővebben?
Az, hogy a ringbus talán helytakarékosabb meglehet, de nem csinál a 256M-ből 512Megát.
A Ringbus ennél azért jóval többet tesz. Eleve célszerű elkülöníteni az x1000 széria úgymond CrossRing és az R600 teljesen önálló egységekből felépített rendszerét. Az R5xx GPU-knál még központilag volt működtetve a vezérlő, míg az R600-ban a memóriarészek vezérlését a hozzájuk tartozó Ringstop-ok látják el.
Én nem mondanám, hogy tipikusan alacsony a késleltetés a Ring vezérlőnél. A Crossbar PP kapcsolatot használ minden render kimenethez, míg a Ringbus esetében akár egy megálló is közbesehet a fetch befejeztéig.
A Ring inkább az helytakarékossága és a vezérlés pontossága miatt van használatban. A 4 vagy ennél többcsatornás Crossbar esetében sokszor előfordulhat, hogy egyes textúrák beragadnak a memóriába, így a texture fetch akár komolyabb időveszteséget is elkönyvelhet.
A GeForce esetében szükséges egy felső-középkategóriás rendszernek az 512MB memória, a hasonló kategóriás Radeonra nem feltétlen kell.
A programok videomemória igénye sem nő a közeljövőben komolyabb mértékben, túlságosan vissza van fogva a GF8 lehetőségei miatt a fejlődés.
Mindenkinek bemutatom Abu-t. Ő azért valami kapizsgál a témában
A videomemória mennyisége igen is fontos még az általad gyakran emlegetett streamelés mellett is. Ez az operatív tár amihez a GPU hozzá tud nyúlni megpedig minnél nagyob bitszélességű buszon, minnél magasabb órajelű memóriákhoz, annál gyorsabb lesz az adatátvitel. (a ringbus tudtommal ezt az elérést segítheti, úgy hogy a várakozási idők lerövidülhetnek) A 256 mega memória a játékoknál már alapkövetelmény és a memória méret növelésével nö az a tárkapacitás amihez a GPU hozzá tud nyúlni. Ezért szerintem (és minden bizonnyal még sok más mindenki szerint) célszerű legalább 512mb-os kártyát venni.
A Ringbus ennél azért jóval többet tesz. Eleve célszerű elkülöníteni az x1000 széria úgymond CrossRing és az R600 teljesen önálló egységekből felépített rendszerét. Az R5xx GPU-knál még központilag volt működtetve a vezérlő, míg az R600-ban a memóriarészek vezérlését a hozzájuk tartozó Ringstop-ok látják el.
Én nem mondanám, hogy tipikusan alacsony a késleltetés a Ring vezérlőnél. A Crossbar PP kapcsolatot használ minden render kimenethez, míg a Ringbus esetében akár egy megálló is közbesehet a fetch befejeztéig.
A Ring inkább az helytakarékossága és a vezérlés pontossága miatt van használatban. A 4 vagy ennél többcsatornás Crossbar esetében sokszor előfordulhat, hogy egyes textúrák beragadnak a memóriába, így a texture fetch akár komolyabb időveszteséget is elkönyvelhet.
A GeForce esetében szükséges egy felső-középkategóriás rendszernek az 512MB memória, a hasonló kategóriás Radeonra nem feltétlen kell.
A programok videomemória igénye sem nő a közeljövőben komolyabb mértékben, túlságosan vissza van fogva a GF8 lehetőségei miatt a fejlődés.
De itt már nincs felhasználandó memóriaigény. Minden 3D-s program Streameli a textúrákat, ha minden szükséges adatnak benne kellene lennie a videó memóriában akkor már minden karin 2GB RAM lenne (kb ennyit használnak a mai játékok öszesen, és még a rendszer memóriaigényéről nem is beszéltünk).
A Ring bus vezérlésének hatásai egyértelműek. A HD3850 memóriamennyiségtől függetlenül állandó sebeséget ad 1600x1200 alatti felbontásokban, míg a 8800GT 256MB-os már alacsonyabb felbontásnál is lassabb szokott lenni 512MB-os nagytesójánál, nem is kevéssel.
A videomemória mennyisége igen is fontos még az általad gyakran emlegetett streamelés mellett is. Ez az operatív tár amihez a GPU hozzá tud nyúlni megpedig minnél nagyob bitszélességű buszon, minnél magasabb órajelű memóriákhoz, annál gyorsabb lesz az adatátvitel. (a ringbus tudtommal ezt az elérést segítheti, úgy hogy a várakozási idők lerövidülhetnek) A 256 mega memória a játékoknál már alapkövetelmény és a memória méret növelésével nö az a tárkapacitás amihez a GPU hozzá tud nyúlni. Ezért szerintem (és minden bizonnyal még sok más mindenki szerint) célszerű legalább 512mb-os kártyát venni.
Szerintem azért olyan nagyon nagy előnye nem származott még az ATI-nak a ringbuszból. Pl. a 3870-es kártyáknak jóval magasabb órajelű memöriái vannak mint a 8800GT-nek, mégis sokkal lassabb nála.Igaz ez biztos a GPU miatt van.
Még az X1xxx széria megjelenésekor én is olvastam nagyon sokat a ringbuszról, tetszett is a dolog, de szerintem ezeket az előnyöket nem nagyon sikerült kiaknázni.
Az meg hogy a 256 és 512 megás 3850 között nagyobb felbontásoknál jön elő a jelentős teljesítménykülönbség érthető, hisz ekkor kell nagyobb memóriaméret és sávszélesség, amin talán a ringbus segít, de szerintem a felhasználandó memóriaméret igényen gyakorlatilag marad ugyan akkora.
De itt már nincs felhasználandó memóriaigény. Minden 3D-s program Streameli a textúrákat, ha minden szükséges adatnak benne kellene lennie a videó memóriában akkor már minden karin 2GB RAM lenne (kb ennyit használnak a mai játékok öszesen, és még a rendszer memóriaigényéről nem is beszéltünk).
A Ring bus vezérlésének hatásai egyértelműek. A HD3850 memóriamennyiségtől függetlenül állandó sebeséget ad 1600x1200 alatti felbontásokban, míg a 8800GT 256MB-os már alacsonyabb felbontásnál is lassabb szokott lenni 512MB-os nagytesójánál, nem is kevéssel.
Ez már rég nem így működik. A Ring memóriavezérlő sokkal jobban illeszkedik a mostani játékok memóriaigényeihez, úgyanis ezek már Streamelik a textúrákat. Ezárt van az, hogy a 256MB-os és a 512MB-os HD3850 között csak magas felbontásban szűrőkkel (1600x1200-ban AA és AF-fel) van különbség. A 8800GT memóriavezérlője nagyon öreg, ráadásul a ROP asszimetrikus felépítése miatt még bugosan is működik (texture leak probléma). GF8-on a 256MB mínusz már 1280x1024-ben szűrők nélkül is látszik.
Szerintem azért olyan nagyon nagy előnye nem származott még az ATI-nak a ringbuszból. Pl. a 3870-es kártyáknak jóval magasabb órajelű memöriái vannak mint a 8800GT-nek, mégis sokkal lassabb nála.Igaz ez biztos a GPU miatt van.
Még az X1xxx széria megjelenésekor én is olvastam nagyon sokat a ringbuszról, tetszett is a dolog, de szerintem ezeket az előnyöket nem nagyon sikerült kiaknázni.
Az meg hogy a 256 és 512 megás 3850 között nagyobb felbontásoknál jön elő a jelentős teljesítménykülönbség érthető, hisz ekkor kell nagyobb memóriaméret és sávszélesség, amin talán a ringbus segít, de szerintem a felhasználandó memóriaméret igényen gyakorlatilag marad ugyan akkora.
A memóriavezérlő más de nem feltétlen fejlettebb, igaz állítólag programozható.
Viszont a felhasználandó memória mennyiségét ez nem befolyásolja, csak az elérési idő lehet legfeljebb rövidebb. Ha nagy felbontásban erősebb beállításokat akar valaki, akkor a memóra mennyisége is fontos, pláne ha a duplája.
Ez már rég nem így működik. A Ring memóriavezérlő sokkal jobban illeszkedik a mostani játékok memóriaigényeihez, úgyanis ezek már Streamelik a textúrákat. Ezárt van az, hogy a 256MB-os és a 512MB-os HD3850 között csak magas felbontásban szűrőkkel (1600x1200-ban AA és AF-fel) van különbség. A 8800GT memóriavezérlője nagyon öreg, ráadásul a ROP asszimetrikus felépítése miatt még bugosan is működik (texture leak probléma). GF8-on a 256MB mínusz már 1280x1024-ben szűrők nélkül is látszik.
CSá All!
Szerintetek a 8800gt vagy a 8800GTS G92-t érdemesebb megvenni.
kyokaza írta:
CSá All!
Szerintetek a 8800gt vagy a 8800GTS G92-t érdemesebb megvenni.
Szerintem mind a kettőt, de az ár/telj. aránya a 8800GT-nek verhetetlen.-persze csak az 512Mb-os mert a 256megás vezióknál állítólag nagyon sokat rontott a teljesítményen a memória megfelezése.
Gpety: fejlettebb memóriavezérlő miatt, nem nvidia szintű memóriamennyiségre kell gondolni. Ha nagyon kevés lett volna a ram, akkor crysis memóriahúzásban 1600-ről 2000-re, lett volna valami eredménye, de semmi.
wolf92: talán 380V-osat akarsz venni?
A memóriavezérlő más de nem feltétlen fejlettebb, igaz állítólag programozható.
Viszont a felhasználandó memória mennyiségét ez nem befolyásolja, csak az elérési idő lehet legfeljebb rövidebb. Ha nagy felbontásban erősebb beállításokat akar valaki, akkor a memóra mennyisége is fontos, pláne ha a duplája.
A szerkesztőségi anyagok vírusellenőrzését az ESET programcsomagokkal végezzük, amelyet a szoftver magyarországi forgalmazója, a Sicontact Kft. biztosít számunkra.