Kérjük jelentkezz be!

Videókártyák topicja

Nvidia és Ati, kéz a kézben
#175637 Blase 2008. február. 10. 20:49
Blase
Előbb használd a driver cleanert(köszönjük R.I.P. )Utána próbálkozz más driverekkel mert nekem már votl oylan hogy zaért nem ment egy játék mert 2 driver össez volt akadva.
#175622 @Mézga@ 2008. február. 10. 19:54
@Mézga@
Helló még mindig küszködöm a Project Igi-vel!
Pár sorral lentebb már irtam hogy az a gondom hogy a normal gépemen nem tudok vele játszani mert mindneféle krix-krax-okat produkál már a menüje is!

A Tartalék gépemen Gigybyte alaplap+Amd Athlon 64 3800+ am2 + az ég világon mindne integrálva ... a VGA is ami egy 6100 Geforce.. Azzal meg tökéletes!

Lassan már behány a Windózom mert annyi féle drivert meg mindneféle vackot raktam fel(legalább is ezeket a tanácsokat kaptam) , de semmi változás!
Lehet hogy valami olyatr tud aki kis buta integrált Geforce amit a rendes 8600GT nem???

#175621 R.I.P. 2008. február. 10. 19:47
R.I.P.
#175591 :: stuki (2008. február. 10. 18:59)
hát épp it a bibi hogy ott is bevan állítva az a frekvencia de simánn leszarja de csak ennél a game-nél
töröld le a játékot
#175591 stuki 2008. február. 10. 18:59
stuki
hát épp it a bibi hogy ott is bevan állítva az a frekvencia de simánn leszarja de csak ennél a game-nél
#175590 Zeroo93 2008. február. 10. 18:54
Zeroo93
Akkor a gém megjelenítésénél is állítsd be a számodra kedvező frekvenciára.
#175588 stuki 2008. február. 10. 18:47
stuki
alapban elvileg bírja a monitor mert játtszok azóta a cod 4-el mióta kijött próbáltaam már több catalistot is a gyárit meg a 7.11-7.12-őt is mindegyikkel ezt csinálja. illetve mostanában ezt csinálja 2-hete
#175583 Zeroo93 2008. február. 10. 18:29
Zeroo93
Most így kicsit összezavarodtam, szerintem driver, alapból bírja a monitorod?
#175582 stuki 2008. február. 10. 18:23
stuki
szevasztok lenne egy kis gondom segítségre lenne szükségem. van egy 2600xt-m az lenne vele a baj hogy amint elkezdek játtszani a Cod 4-el akkor visszadobja a monitoromaz 60mhz-re de a játékban 75-van beállítva elég zavaró mert ilyenkor egy 2-3 cm-es csík lessz bal oldalon tudnátok segíteni miért lehet? most formáztam a gépet és gyári a catalitja is nem tudom mi lehet a bajság légyszi ötleteket?????
#175573 R.I.P. 2008. február. 10. 17:51
R.I.P.
#175570 :: Zeroo93 (2008. február. 10. 17:41)
Lol még az inno is? ezt nem is tudtam.
Sok cég, csak éppen más néven futnak, mivel köti a hűség az egyes gyártókhoz. Sapphire is árul nvidiát, csak most nem tudom mi a nevük. Ha nem tévedek, akkor zotac.
#175570 Zeroo93 2008. február. 10. 17:41
Zeroo93
Lol még az inno is? ezt nem is tudtam.
#175563 R.I.P. 2008. február. 10. 17:06
R.I.P.
#175555 :: irampro (2008. február. 10. 16:55)
sziasztok! sztetek melyik a legjobb atikártya-gyártó? gigabyte, sapphire, msi, his??
irampro: mindegyiket a sapphire gyártja, de amúgy HIS IceQ turbós változatok a legjobbak. Persze most már egyre több gyártó tiszteletét teszi magát az atinál, mivel az nvidiánál nem nyernek olyan sokat a gyártók egy kártya eladásánál. Már inno is árul ati kártyákat
#175560 jedimaster 2008. február. 10. 17:01
jedimaster
Szerintem a Sapphire, ők az elsődleges gyártója. De szerintem nincs gond a többivel sem, azok max. órajelben és/vagy a hűtőben különböznek.
#175557 Zeroo93 2008. február. 10. 16:58
Zeroo93
Nemtudom a Saphire, talán, néha kiszokot találni naon jó dolgokat, vagy a his, annak profi hűtői vannak
#175555 irampro 2008. február. 10. 16:55
irampro
#175508 :: MarioAna (2008. február. 10. 13:51)
vdavid: a Komondor az egy kutyafajta tessék. Ellenben a Commodore(komodór(e), ha már a díszes magyar nyelvnél tartunk) az egy számítógépfajta: Link. Goggle használat
sziasztok!
sztetek melyik a legjobb atikártya-gyártó?
gigabyte, sapphire, msi, his??
#175508 MarioAna 2008. február. 10. 13:51
MarioAna
vdavid: a Komondor az egy kutyafajta tessék.
Ellenben a Commodore(komodór(e), ha már a díszes magyar nyelvnél tartunk) az egy számítógépfajta: Link.
Goggle használat
#175507 R.I.P. 2008. február. 10. 13:49
R.I.P.
#175469 :: Kukabogyo (2008. február. 10. 12:01)
Sztem van letjogosultsaga a Crossfire-nek es az SLInek. Amikor egy architekturaval elerik a hatarokatde több teljesitmeny kell, akkor tud segiteni, ha ket kartyat összekötünk. Nem azt mondom, hogy kössünk össze ket 8600 GS-t, az hülye ötlet, inkabb tegyünk bele egy 8800 GT-t. Sajnos nem ugy van, hogy a fejlesztök bemennek a raktarba es kiveszik a következö generacios architekturat. Idöbe telik, amig azt kifejlesztik. Addig pedig ket kartya. Anno en is igy jartam. Akkor a 7900 GTX volt a legjobb kartya. Nekem nagyobb teljesitmeny kellett, ezert lett a gepem SLI-s. Mar öreg, de azert meg jol huz. Persze ha tavaly epitettem volna, ugyanazt a szintet mar egy uj kartya hozna, dehat akkor meg nem volt 8XXX-es vagy 3XXX-es szeria.
Ha nvidia nem erőltetné rá az architektúráját a játékfejlesztőkre, akkor a crysis 1280-on very highon 60FPS-el futna egy 3850-es kártyán. Így persze van létjogosultsága az slinek meg a CF-nek
#175469 Kukabogyo 2008. február. 10. 12:01
Kukabogyo
Sztem van letjogosultsaga a Crossfire-nek es az SLInek. Amikor egy architekturaval elerik a hatarokatde több teljesitmeny kell, akkor tud segiteni, ha ket kartyat összekötünk. Nem azt mondom, hogy kössünk össze ket 8600 GS-t, az hülye ötlet, inkabb tegyünk bele egy 8800 GT-t. Sajnos nem ugy van, hogy a fejlesztök bemennek a raktarba es kiveszik a következö generacios architekturat. Idöbe telik, amig azt kifejlesztik. Addig pedig ket kartya. Anno en is igy jartam. Akkor a 7900 GTX volt a legjobb kartya. Nekem nagyobb teljesitmeny kellett, ezert lett a gepem SLI-s. Mar öreg, de azert meg jol huz. Persze ha tavaly epitettem volna, ugyanazt a szintet mar egy uj kartya hozna, dehat akkor meg nem volt 8XXX-es vagy 3XXX-es szeria.
#175433 R.I.P. 2008. február. 10. 09:28
R.I.P.
#175429 :: vdavid (2008. február. 10. 09:02)
A processzoroknál bevezették, hogy több CPU legyen egy gépben, most a videokártyáknál is ugyanezt akarják. Jó-jó, csak ennek van egy hátránya: a helyhiány. Ha ez tényleg így lesz, akkor a jövőben már akkora számítógépházakat kell gyártani, mint egy szekrény, hogy minden hardverből beleférjen 3-4 darab, és akkor nem előre fejlődünk, hanem visszafele. A 70'-es években voltak akkora számítógépek, hogy egy egész szobát elfoglaltak. Aztán 77'-ben jött az első asztali számítógép, a Commondore (Kommondor) ha jól tudom. Visszatérve a témához, ez a két GPU-s rendszer nem a legjobb megoldás. Ugye az informatikában az a fejlődés, ha minél több hardvert össze tudnak zsúfolni minél kisebb helyen. De nem fordítva.
Jézusom....Azt hittem legalább azt fogod írni, hogy a natív kétgpus megoldásoknak az lesz a hátrányuk, hogy amelyik játék nem támogatja ezt, ott lassabb lesz, de erre írsz egy hülye indokot
Mikor a procik elkezdtek több magból állni, akkor nem kellett nekik 3x akkora tokozás. Meg ha két gpu lesz, akkor lehet, hogy kettő fog akkora lenni, mint máshol egy, stb...
#175429 vdavid 2008. február. 10. 09:02
vdavid
A processzoroknál bevezették, hogy több CPU legyen egy gépben, most a videokártyáknál is ugyanezt akarják.
Jó-jó, csak ennek van egy hátránya: a helyhiány.
Ha ez tényleg így lesz, akkor a jövőben már akkora számítógépházakat kell gyártani, mint egy szekrény, hogy minden hardverből beleférjen 3-4 darab, és akkor nem előre fejlődünk, hanem visszafele.
A 70'-es években voltak akkora számítógépek, hogy egy egész szobát elfoglaltak.
Aztán 77'-ben jött az első asztali számítógép, a Commondore (Kommondor) ha jól tudom.
Visszatérve a témához, ez a két GPU-s rendszer nem a legjobb megoldás.
Ugye az informatikában az a fejlődés, ha minél több hardvert össze tudnak zsúfolni minél kisebb helyen.
De nem fordítva.
#175400 R.I.P. 2008. február. 09. 23:11
R.I.P.
#175396 :: Thewitcher (2008. február. 09. 22:32)
jaja XD lesznek ittmég durva dolgok mindkét vga-gyártó részéről
Abban biztosak lehetünk, hogy nvidia átveszei az ati szobafűtés stílusát. Következő generációs gpujuk 250W-os TDP-vel fog rendelkezni a mostani hírek szerint. Ez anynit tesz, mint két Q6600-as proci és két ilyen procinak is van rendesen fűtőértéke. Lassan elkérezünk, hogy gyárilag vízhűtést szerelnek rá, és az extra akkor a nap 24 órájában szárazjég lesz
#175396 Thewitcher 2008. február. 09. 22:32
Thewitcher
#175394 :: R.I.P. (2008. február. 09. 22:17)
Thewitcher: arról már van hír, hogy R700-nak többmagos lesz (multigpu) a felépítése. Még nem tudni mi igaz belőle. Erre egyből megjelent a hír, hogy G100, 200? nak is ilyen lesz a felépítése. Hogy mi valósul meg ebből az kérdéses. Atinál a CF-nek már van létjogolsultsága, mert 2db 3850 annyit fogyaszt, mint egy 2900XT, meg a 3870 X2 is annyit fogyaszt. Mellesleg nagyon poénos az nvidia GX2 próbálkozása. Az biztos, hogy fűteni fog mint állat, mert msi dobozának matricáján rajta lóg, hogy ne nyúl hozzá, mert tűzveszélyes. Pedig egyes silent megoldások is elérik a 100 fok feletti hőmérsékletet és egy darab ilyen felirat sincs rajtuk. Az eszkimók már biztos várják a GX2-t
jaja

XD

lesznek ittmég durva dolgok mindkét vga-gyártó részéről
#175394 R.I.P. 2008. február. 09. 22:17
R.I.P.
#175392 :: Thewitcher (2008. február. 09. 21:56)
Énis maximálisan egyetértek Ragnos hsz-ével. Viszont azzal nem feltétlenül hogy egy idő mulva(pár hónap-1év) ,feltétlenül SLI-be kéne kötni két videókártyát.Ez egy megoldás ,de nem túl kecsegtető mivel táp is kell a gépnek rendessen ,ami meg már olyan szinten zabájja a villanyórát hogy győzze kifizetni az ember a villanyszámlát.Nem tartom egy ötletes dolognak ,de inkább úgy mondom hogy eggyáltalán nem tartom okos dolognak az SLI-t ,és nemcsak a fogyasztása miatt. Én inkább elindulnék abba az irányba ahol most az ATI jár ,nevezetesen hogyha már a prociknál is működik ez ,és kiforrta magát a dolog ,akkor igenis a grafikus vezérlőknél is álljanak rá a duplamagos GPU-k fejlesztésére ,és olyan tecnológiát alakítsanak ki köré hogy feleslegessé váljon az SLI. Egy nagyon durva jövőkép....ATI Radeon X15000Pro 4GB DDR5(3.8Ghz) ,Quad Core GPU(4Ghz) DDD----hehe ,tudom hogy hülyén hangzik ,de legalább ennyire hülyén hangzott volna anno a mongyuk Geforce4 érában ,ha egy mostani valós Nvidia 8800-as architechturát leírnak....elgondolkodtató. Lényeg hogy az SLI-t én akkoris egy felesleges áramzabáló hülyeségnek tartom
Thewitcher: arról már van hír, hogy R700-nak többmagos lesz (multigpu) a felépítése. Még nem tudni mi igaz belőle. Erre egyből megjelent a hír, hogy G100, 200? nak is ilyen lesz a felépítése. Hogy mi valósul meg ebből az kérdéses. Atinál a CF-nek már van létjogolsultsága, mert 2db 3850 annyit fogyaszt, mint egy 2900XT, meg a 3870 X2 is annyit fogyaszt.

Mellesleg nagyon poénos az nvidia GX2 próbálkozása. Az biztos, hogy fűteni fog mint állat, mert msi dobozának matricáján rajta lóg, hogy ne nyúl hozzá, mert tűzveszélyes. Pedig egyes silent megoldások is elérik a 100 fok feletti hőmérsékletet és egy darab ilyen felirat sincs rajtuk. Az eszkimók már biztos várják a GX2-t
#175392 Thewitcher 2008. február. 09. 21:56
Thewitcher
#175326 :: Ragnos (2008. február. 09. 18:52)
DX9 előnye: megy XP alatt és régebbi kártyákon is DX10 előnye: gyorsabb, szebb, stb. Attól, hogy most a dx10 még csak annyit jelent egy játéknál, hogy van benne 1-2 plusz effekt, ami 1%-al szebbé teszi a játékot, valamint az egész játék lassabb lesz 20 fps-sel, az nem jelenti azt, hogy sz@r a dx10. Ha valami tényleg kihasználná a dx10 lehetőségeit, és dx10-re épülne, akkor most minden hasítana, és nem kellene 9128321398132893218 db. 100 ezer huf-os kártya ahhoz, hogy elfusson maxon. Ráadásul ez pont a hőn szeretett, agyonrajongott NVIDIA-nak köszönhető az elavult, dx9-re épülő Geforce 8xxx szériával, és a játékfejlesztők pénzelésével, hogy ugyanmá' nehogy normális kódot írjatok, meg nehogymá' kihasználjátok a dx10-et, mert így el lehet adni a 120 ezer ft-os 8800GTX-et, meg a 160k-s Ultrát, ráadásul ebből rögtön kettő is kell, mert egy nem elég. Úgyhogy most pont az NVIDIA miatt van az, hogy egy Crysis, vagy a jövőre gondolva mondjuk egy Assasin's Creed egy kártyával már nem elégszik meg. A dx10 fékezése pedig pont amiatt van, mert az NVIDIA tudja, hogy 2 fps-sel menne egy Crysis szintű grafikával rendelkező játék dx10-ben a kevés shader proci miatt.
Énis maximálisan egyetértek Ragnos hsz-ével.

Viszont azzal nem feltétlenül hogy egy idő mulva(pár hónap-1év) ,feltétlenül SLI-be kéne kötni két videókártyát.Ez egy megoldás ,de nem túl kecsegtető mivel táp is kell a gépnek rendessen ,ami meg már olyan szinten zabájja a villanyórát hogy győzze kifizetni az ember a villanyszámlát.Nem tartom egy ötletes dolognak ,de inkább úgy mondom hogy eggyáltalán nem tartom okos dolognak az SLI-t ,és nemcsak a fogyasztása miatt.

Én inkább elindulnék abba az irányba ahol most az ATI jár ,nevezetesen hogyha már a prociknál is működik ez ,és kiforrta magát a dolog ,akkor igenis a grafikus vezérlőknél is álljanak rá a duplamagos GPU-k fejlesztésére ,és olyan tecnológiát alakítsanak ki köré hogy feleslegessé váljon az SLI.

Egy nagyon durva jövőkép....ATI Radeon X15000Pro 4GB DDR5(3.8Ghz) ,Quad Core GPU(4Ghz) DDD----hehe ,tudom hogy hülyén hangzik ,de legalább ennyire hülyén hangzott volna anno a mongyuk Geforce4 érában ,ha egy mostani valós Nvidia 8800-as architechturát leírnak....elgondolkodtató.

Lényeg hogy az SLI-t én akkoris egy felesleges áramzabáló hülyeségnek tartom
#175335 Echoes 2008. február. 09. 19:12
Echoes
Nem tartom elképzelhetetlennek.
#175329 Echoes 2008. február. 09. 18:56
Echoes
Na Ragnos szavakba öntötted gondolataimat és véleményeimet is. Teljes mértékben egyetértek veled.