Kérjük jelentkezz be!

Videókártyák topicja

Nvidia és Ati, kéz a kézben
#195592 schelotto 2008. március. 27. 14:10
schelotto
Sziasztok! Most raktam be a gépbe az uj karimat: Asus EN8800GTS 640MB Belépek a rivatunerbe és ezt látom:
Core clock:513Mhz
Shader clock:1187Mhz
Memory clock:792Mhz Most ezt csak én keveslem vagy ennek tényleg ezek a gyári értékei?
#195561 Gpety 2008. március. 27. 13:14
Gpety
#195521 :: Abu85 (2008. március. 27. 10:51)
Gpety írta: A Larrabee-ról eddig nem sokat udni azért, én amiket olvsatam nem is csak kifejezetten GPU, hanem más nagy számításigényű vizualizációs technológia lesz, hasonló felépítéssel mint a Cell. Az egyenlőre tuti biztos, hogy ha az Intel fejleszti jó és áttörő erejű lesz, viszont az is biztos hogy a 2009-ben megjelenő Larrabee-t elsődlegesen professzionális használatra fejlesztik és nem pedig játékokra.-Talán néhány év múlva arra is lesz Inteles megoldás. Az Nv-nek nem kell félnie, hogy az Intel támogatása nélkül maradna, hisz nemrég kezdtek el készíteni Nforce-okat Intel procikhoz, az Intel bolond lenne magának keresztbe tenni, hisz közismert hogy a legjobb lapkakészleteket az Nv fejleszti, ráadásul amig a vidiások nem készítettek lapot csak AMD-re akkor is bőven megvoltak. Szerintem attól egyáltalán nem kell félni, hogy nem lesz Nforce-os lap Intel-hez. Ha az Nv át is adja a Physix technológiát az AMD-nek akkor azt biztosan nem ingyen a két szép szemükért teszik, hisz ha ez a technológia belekerülne a játékos piacot uraló és a játékfejlesztőket is erősen (és ez vissza is igaz) támogató Nv Geforce kártyákba és az ATI nem ismerné ezt a technológiát akkor bizony áshatnák a sírukat-igaz ebből mindneki csak profitálna, viszont nem látok nagy esélyt erre az együttműködésre, mivel ha jól tudom az ATI már régebb óta kísérletezik a GPU-inak fizikai számításokra történő felhasználására, de talán rájuk eröltethető a Physix is. A VIA azért nincs annyira lemaradve, energiatakarékosság terén egyáltalán, sőt a két nagy gyártó előtt jár. A sebességet meg az Nv-től való tőke és tudás injekcióval meg tudnák oldani. De szerintem az Nv nem az x86 procikban látja ajvőjét, hanem a VGA és az alaplap bizniszben. A VIA felvásárlása viszont előre lépést jelenthetne nekik az ATI és az Intel részről is fejlesztés alatt álló (és az Nv-nél is készülő "GPU-t a CPU-ba" technológiában, amik ha végre megjelennek egyenlőre biztosancsak kis fogyasztású, mobil gépekben lesznek beépítve, ami pont a VIA erőssége.
Az összes GPU GPGPU lesz mostantól. A Larrabee Atom Core-okre fog épülni. Nagyon különbözik a Cell-től. A Larrabee csak raszteres grafikában lesz gyenge, Ray-Tracing vagy fizikai számítások fekszenek majd neki (ez már elég az asztali piacon). Az Intel nem támogatta sose az nV-t, kölcsönösen jövedelmező szerződéseket kötöttek. Annyi a baj jelenleg, hogy a Physx technikája fejletebb a Havoknál, így veszélyforrás a Larrabee-re. Ezért nem adják oda az nV-nek a CSI licenszet, így az nV többet nem fejleszthet alaplapot az Intel procikhoz (pontosabba fejleszthet csak nem adhatja ki). Alaplap szinten jelenleg csak az vesz nForce-ot akinek SLI kell, amúgy csak a baj van velük Intel, AMD oldalon is. Az Intel chipseteknél lassabb az nForce, az AMD-knél tűzforró a cucc ráadásul az ATAPI támogatása is több helyen figyelmen kívül hagyja a szabványt. Ha valakinek nem kell az SLI akkor nagyon ajánlott kerülni az nV-s alaplapokat. Valszeg az lesz, hogy az SLI nyílt szabvány lesz és az AMD támogatni fogja ebben az nV-t. Az Intel hátat fog fordítani, mert nekik fontosabb a saját fejlesztésük. A Physx-et könnyen odaadja az nV akár ingyen is az AMD-nek. Egyedül kevés az nV, de az AMD-vel együtt borsot törhet az Intel havok-os tervei alá. A VIA teljesítmény fogyasztás viszonylatban is le van maradva. Oké, hogy az Intel, AMD chipek többet fogyasztanak, de jelentősen gyorsabbak is. A VIA majd talán az új fejlesztésével hozhat valamit a konyhára. Az nV jövöje egyelőre a Handled kütyük, Cebit-en is ezekre helyezték a hangsúlyt. Szinte végig csak az APX 2500-at demózták és áradoztak róla. Megmaradnak a VGA piacon, de az elsődleges szempont egy új piac lesz.
Hát persze, hogy azúj kütyüjükkel kampányolnak, minden új dolognak elfér az extra kampány, a Geforce-okat most úgysem igen kell reklámozni.
A Ray-Tracing is azt sugallja nekem, hogy bizonyám ez professzionális felhasználásra fog elsődlegesen készülni (Maya, Max), szerintem leginkább majd a Quadro és FireGL-ek ellenfelének szánják az új GPU-t (márha ezt annak lehet még nevezni)
Akárhogy is legyen az Intel 3D-ben mind Nv mind pedig ATI oldalhoz képest el van maradva hardver szempontjából, úgyhogy van mint behozniuk, viszont náluk megvan az ami az AMD-nél nincs meg jelenleg és nem is lesz: egy rettenetesen sok profitot hozó x86 részleg, amiből aztán igen sokat tudnak nyomni a vizualizációs fejlesztésükbe.
Egyébként én ebből a szempontból inkább féltem az AMD-ATI párost, mint az Nv-t, az Intel rájuk veszélyesebb most is és a jövőben is.
#195521 Abu85 2008. március. 27. 10:51
Abu85
#195490 :: Gpety (2008. március. 27. 08:18)
A Larrabee-ról eddig nem sokat udni azért, én amiket olvsatam nem is csak kifejezetten GPU, hanem más nagy számításigényű vizualizációs technológia lesz, hasonló felépítéssel mint a Cell. Az egyenlőre tuti biztos, hogy ha az Intel fejleszti jó és áttörő erejű lesz, viszont az is biztos hogy a 2009-ben megjelenő Larrabee-t elsődlegesen professzionális használatra fejlesztik és nem pedig játékokra.-Talán néhány év múlva arra is lesz Inteles megoldás. Az Nv-nek nem kell félnie, hogy az Intel támogatása nélkül maradna, hisz nemrég kezdtek el készíteni Nforce-okat Intel procikhoz, az Intel bolond lenne magának keresztbe tenni, hisz közismert hogy a legjobb lapkakészleteket az Nv fejleszti, ráadásul amig a vidiások nem készítettek lapot csak AMD-re akkor is bőven megvoltak. Szerintem attól egyáltalán nem kell félni, hogy nem lesz Nforce-os lap Intel-hez. Ha az Nv át is adja a Physix technológiát az AMD-nek akkor azt biztosan nem ingyen a két szép szemükért teszik, hisz ha ez a technológia belekerülne a játékos piacot uraló és a játékfejlesztőket is erősen (és ez vissza is igaz) támogató Nv Geforce kártyákba és az ATI nem ismerné ezt a technológiát akkor bizony áshatnák a sírukat-igaz ebből mindneki csak profitálna, viszont nem látok nagy esélyt erre az együttműködésre, mivel ha jól tudom az ATI már régebb óta kísérletezik a GPU-inak fizikai számításokra történő felhasználására, de talán rájuk eröltethető a Physix is. A VIA azért nincs annyira lemaradve, energiatakarékosság terén egyáltalán, sőt a két nagy gyártó előtt jár. A sebességet meg az Nv-től való tőke és tudás injekcióval meg tudnák oldani. De szerintem az Nv nem az x86 procikban látja ajvőjét, hanem a VGA és az alaplap bizniszben. A VIA felvásárlása viszont előre lépést jelenthetne nekik az ATI és az Intel részről is fejlesztés alatt álló (és az Nv-nél is készülő "GPU-t a CPU-ba" technológiában, amik ha végre megjelennek egyenlőre biztosancsak kis fogyasztású, mobil gépekben lesznek beépítve, ami pont a VIA erőssége.
Gpety írta:

A Larrabee-ról eddig nem sokat udni azért, én amiket olvsatam nem is csak kifejezetten GPU, hanem más nagy számításigényű vizualizációs technológia lesz, hasonló felépítéssel mint a Cell. Az egyenlőre tuti biztos, hogy ha az Intel fejleszti jó és áttörő erejű lesz, viszont az is biztos hogy a 2009-ben megjelenő Larrabee-t elsődlegesen professzionális használatra fejlesztik és nem pedig játékokra.-Talán néhány év múlva arra is lesz Inteles megoldás.
Az Nv-nek nem kell félnie, hogy az Intel támogatása nélkül maradna, hisz nemrég kezdtek el készíteni Nforce-okat Intel procikhoz, az Intel bolond lenne magának keresztbe tenni, hisz közismert hogy a legjobb lapkakészleteket az Nv fejleszti, ráadásul amig a vidiások nem készítettek lapot csak AMD-re akkor is bőven megvoltak. Szerintem attól egyáltalán nem kell félni, hogy nem lesz Nforce-os lap Intel-hez.
Ha az Nv át is adja a Physix technológiát az AMD-nek akkor azt biztosan nem ingyen a két szép szemükért teszik, hisz ha ez a technológia belekerülne a játékos piacot uraló és a játékfejlesztőket is erősen (és ez vissza is igaz) támogató Nv Geforce kártyákba és az ATI nem ismerné ezt a technológiát akkor bizony áshatnák a sírukat-igaz ebből mindneki csak profitálna, viszont nem látok nagy esélyt erre az együttműködésre, mivel ha jól tudom az ATI már régebb óta kísérletezik a GPU-inak fizikai számításokra történő felhasználására, de talán rájuk eröltethető a Physix is.
A VIA azért nincs annyira lemaradve, energiatakarékosság terén egyáltalán, sőt a két nagy gyártó előtt jár. A sebességet meg az Nv-től való tőke és tudás injekcióval meg tudnák oldani. De szerintem az Nv nem az x86 procikban látja ajvőjét, hanem a VGA és az alaplap bizniszben. A VIA felvásárlása viszont előre lépést jelenthetne nekik az ATI és az Intel részről is fejlesztés alatt álló (és az Nv-nél is készülő "GPU-t a CPU-ba" technológiában, amik ha végre megjelennek egyenlőre biztosancsak kis fogyasztású, mobil gépekben lesznek beépítve, ami pont a VIA erőssége.

Az összes GPU GPGPU lesz mostantól. A Larrabee Atom Core-okre fog épülni. Nagyon különbözik a Cell-től. A Larrabee csak raszteres grafikában lesz gyenge, Ray-Tracing vagy fizikai számítások fekszenek majd neki (ez már elég az asztali piacon). Az Intel nem támogatta sose az nV-t, kölcsönösen jövedelmező szerződéseket kötöttek. Annyi a baj jelenleg, hogy a Physx technikája fejletebb a Havoknál, így veszélyforrás a Larrabee-re. Ezért nem adják oda az nV-nek a CSI licenszet, így az nV többet nem fejleszthet alaplapot az Intel procikhoz (pontosabba fejleszthet csak nem adhatja ki). Alaplap szinten jelenleg csak az vesz nForce-ot akinek SLI kell, amúgy csak a baj van velük Intel, AMD oldalon is. Az Intel chipseteknél lassabb az nForce, az AMD-knél tűzforró a cucc ráadásul az ATAPI támogatása is több helyen figyelmen kívül hagyja a szabványt. Ha valakinek nem kell az SLI akkor nagyon ajánlott kerülni az nV-s alaplapokat. Valszeg az lesz, hogy az SLI nyílt szabvány lesz és az AMD támogatni fogja ebben az nV-t. Az Intel hátat fog fordítani, mert nekik fontosabb a saját fejlesztésük.
A Physx-et könnyen odaadja az nV akár ingyen is az AMD-nek. Egyedül kevés az nV, de az AMD-vel együtt borsot törhet az Intel havok-os tervei alá.
A VIA teljesítmény fogyasztás viszonylatban is le van maradva. Oké, hogy az Intel, AMD chipek többet fogyasztanak, de jelentősen gyorsabbak is. A VIA majd talán az új fejlesztésével hozhat valamit a konyhára.
Az nV jövöje egyelőre a Handled kütyük, Cebit-en is ezekre helyezték a hangsúlyt. Szinte végig csak az APX 2500-at demózták és áradoztak róla. Megmaradnak a VGA piacon, de az elsődleges szempont egy új piac lesz.
#195490 Gpety 2008. március. 27. 08:18
Gpety
#195485 :: Abu85 (2008. március. 27. 07:45)
Itt nem a DX10-ről van szó hanem a piac alakulásáról. Az AMD aránylag biztos lábakon áll... Van GPU-ja, CPU-ja és minden olyan technika a rendelkezésére áll amivel később el lehet a piacon. Az nV-re az Intel a veszélyes. Kezdve ott, hogy 1 év és itt a Larrabee, amivel az Intel a VGA piacot szemelte ki. Nyilván a kékeknek az a legjobb, ha lesz egy kétszereplős piacuk az AMD-vel és ugyan úgy ahogy a prociknál nagyobb befolyással fognak bírni. A háromszereplős piac problémás, mert bármikor keletkezhetnek megállapodások egy-egy húzótechnikáról amivel kettő az egy ellen harc alakulhat ki (nyiván az Intel lesz egyedül, mert az ő részesedésük a legnagyobb). Az nV-t az Intel gyakorlatilag ki akarja tenni, és ha tényleg háború lesz akkor pillanatok alatt tönkretehetik a zöldek több üzletágát is. Csak a hülye öl olyan piacba tetemes pénzt ahol a fennmaradás nem a saját teljesítményedtől, hanem a konkurencia akaratán múlik. Az Intel nemrég megvette a Havok-ot, hogy a Larrabee ha raszteres grafikában az elején nem is, de fizikai számításokban eladható legyen az asztali PC-be. Az nV erre megvette a Physx-et. Az Intelt ez meglehetősen negatívan érinti, így valószínűleg bekeményít és nem ad az nV-nek CSI licenszet, aminek következtébn nem fog tudni alaplapi nForce chipkészletet gyártani az új Intel procikhoz. Ezzel pedig gyakorlatilag kilőve az SLI lehetőség. Tekintve azt, hogy a Havok főleg SLI-re készül ez igen nagy veszteség. Két lehetősége van az nV-nek, az SLI technológia nyilt szabvánnyá emelése, vagy csak az AMD-re építkező chipsetek. A problémát még súlyosbítja, hogy ha az SLI nyilt szabvány lesz, az még nem jelenti azt, hogy az Intel támogatni fogja. Ezért nem fogja az nV a GPU piacot elsődleges szempontként erőltetni, mert a konkurencia egyetlen negatív döntésén elbukhat az a technológia amibe milliárdokat öltek. Gyakorlatilag ez kidobot pénz. A Physx-nél nemrég felmerült, hogy az nV technológiát átadja az AMD-nek is, hogy építse be a Radeonokba. Ez is kényelmetlen döntés az nV részéről, mert ahhoz, hogy talpon maradjon a GPU-s fizikájuk a legnagyobb GPU-s konkurencia segítsége kell. Az nV-nek a GPU-k piaca túlságosan kicsúszott a keze alól, logikátlan üzleti lépés lenne komoly pénzeket beleőlni... Ezt a vezetőség is így gondolje, mert APX 2500 egyre nagyobb figyelmet kap, és olyan piacon startolna a ketyere ahol úttörő lenne. Az sem mellékes, hogy az nV közel másfél éve nem voltoztatott a GPU architektúráján, tehát eleve minimális költségvetéssel dolgoznak már most is. Többet pedig aligha költenek rá az elkövetkezendő időkben, mert az Intel befolyása sokkal nagyobb, és saját platform nélkül nem lehet versenyezni még az AMD-vel sem. Szóba került még, hogy megveszik a VIA-t, de sokra nem mennekvele, mert technológiában túl nagy a lemaradásuk.
A Larrabee-ról eddig nem sokat udni azért, én amiket olvsatam nem is csak kifejezetten GPU, hanem más nagy számításigényű vizualizációs technológia lesz, hasonló felépítéssel mint a Cell. Az egyenlőre tuti biztos, hogy ha az Intel fejleszti jó és áttörő erejű lesz, viszont az is biztos hogy a 2009-ben megjelenő Larrabee-t elsődlegesen professzionális használatra fejlesztik és nem pedig játékokra.-Talán néhány év múlva arra is lesz Inteles megoldás.
Az Nv-nek nem kell félnie, hogy az Intel támogatása nélkül maradna, hisz nemrég kezdtek el készíteni Nforce-okat Intel procikhoz, az Intel bolond lenne magának keresztbe tenni, hisz közismert hogy a legjobb lapkakészleteket az Nv fejleszti, ráadásul amig a vidiások nem készítettek lapot csak AMD-re akkor is bőven megvoltak. Szerintem attól egyáltalán nem kell félni, hogy nem lesz Nforce-os lap Intel-hez.
Ha az Nv át is adja a Physix technológiát az AMD-nek akkor azt biztosan nem ingyen a két szép szemükért teszik, hisz ha ez a technológia belekerülne a játékos piacot uraló és a játékfejlesztőket is erősen (és ez vissza is igaz) támogató Nv Geforce kártyákba és az ATI nem ismerné ezt a technológiát akkor bizony áshatnák a sírukat-igaz ebből mindneki csak profitálna, viszont nem látok nagy esélyt erre az együttműködésre, mivel ha jól tudom az ATI már régebb óta kísérletezik a GPU-inak fizikai számításokra történő felhasználására, de talán rájuk eröltethető a Physix is.
A VIA azért nincs annyira lemaradve, energiatakarékosság terén egyáltalán, sőt a két nagy gyártó előtt jár. A sebességet meg az Nv-től való tőke és tudás injekcióval meg tudnák oldani. De szerintem az Nv nem az x86 procikban látja ajvőjét, hanem a VGA és az alaplap bizniszben. A VIA felvásárlása viszont előre lépést jelenthetne nekik az ATI és az Intel részről is fejlesztés alatt álló (és az Nv-nél is készülő "GPU-t a CPU-ba" technológiában, amik ha végre megjelennek egyenlőre biztosancsak kis fogyasztású, mobil gépekben lesznek beépítve, ami pont a VIA erőssége.
#195485 Abu85 2008. március. 27. 07:45
Abu85
#195477 :: Gpety (2008. március. 27. 07:13)
Abu85 írta: A jövőben az nV-nek másodlagos piaca lesz a grafikus chipek fejlesztése, így a lehető legkisebb befektetéssel akarják fenntartani azt.
Na remélem ezt te sem gondoltad komolyan. Az Nv rengeteg pénzt öl a VGA fejlesztésbe, továbbra is piacvezetők lesznek, mivel annak ellenére, hogy az ATI azért most viszonylag jó kártyákat csinál nem nagyon villog a piaci részesedés megszerzésében-árakt kellene csökkenteni, mert a konkurencia bizony ebben is jobb. Egyébként nem győzöm hangsúlyozni, hogy messzemenően ATI párti vagyok egészen azóta, mióta a geforce2-ről átváltottam Radeon 8500-ra, az pedig nem ma volt és azóta is csak ATI kártyát veszek. Viszont nem vagyok elvakult, mert azért a józan ész azt diktálja hogy bizony röpködhetnek itt a Dx10.1 tulajdonságati dicsőítő szavak, a mostani 8800/9600 geforce-ok jobbak a játékokban, a DX10.1 pedig még meg sem jelent, nemhogy játék készülne rá. Addig még azért várni kell vagy 1,5-2 évet amíg tényleg olyan játék lesz, ami a DX10.1 -et támogatja és azok is biztosan kompatibilisek lesznek a Dx10-el.
Itt nem a DX10-ről van szó hanem a piac alakulásáról. Az AMD aránylag biztos lábakon áll... Van GPU-ja, CPU-ja és minden olyan technika a rendelkezésére áll amivel később el lehet a piacon. Az nV-re az Intel a veszélyes. Kezdve ott, hogy 1 év és itt a Larrabee, amivel az Intel a VGA piacot szemelte ki. Nyilván a kékeknek az a legjobb, ha lesz egy kétszereplős piacuk az AMD-vel és ugyan úgy ahogy a prociknál nagyobb befolyással fognak bírni. A háromszereplős piac problémás, mert bármikor keletkezhetnek megállapodások egy-egy húzótechnikáról amivel kettő az egy ellen harc alakulhat ki (nyiván az Intel lesz egyedül, mert az ő részesedésük a legnagyobb). Az nV-t az Intel gyakorlatilag ki akarja tenni, és ha tényleg háború lesz akkor pillanatok alatt tönkretehetik a zöldek több üzletágát is. Csak a hülye öl olyan piacba tetemes pénzt ahol a fennmaradás nem a saját teljesítményedtől, hanem a konkurencia akaratán múlik. Az Intel nemrég megvette a Havok-ot, hogy a Larrabee ha raszteres grafikában az elején nem is, de fizikai számításokban eladható legyen az asztali PC-be. Az nV erre megvette a Physx-et. Az Intelt ez meglehetősen negatívan érinti, így valószínűleg bekeményít és nem ad az nV-nek CSI licenszet, aminek következtébn nem fog tudni alaplapi nForce chipkészletet gyártani az új Intel procikhoz. Ezzel pedig gyakorlatilag kilőve az SLI lehetőség. Tekintve azt, hogy a Havok főleg SLI-re készül ez igen nagy veszteség. Két lehetősége van az nV-nek, az SLI technológia nyilt szabvánnyá emelése, vagy csak az AMD-re építkező chipsetek. A problémát még súlyosbítja, hogy ha az SLI nyilt szabvány lesz, az még nem jelenti azt, hogy az Intel támogatni fogja. Ezért nem fogja az nV a GPU piacot elsődleges szempontként erőltetni, mert a konkurencia egyetlen negatív döntésén elbukhat az a technológia amibe milliárdokat öltek. Gyakorlatilag ez kidobot pénz.
A Physx-nél nemrég felmerült, hogy az nV technológiát átadja az AMD-nek is, hogy építse be a Radeonokba. Ez is kényelmetlen döntés az nV részéről, mert ahhoz, hogy talpon maradjon a GPU-s fizikájuk a legnagyobb GPU-s konkurencia segítsége kell.
Az nV-nek a GPU-k piaca túlságosan kicsúszott a keze alól, logikátlan üzleti lépés lenne komoly pénzeket beleőlni... Ezt a vezetőség is így gondolje, mert APX 2500 egyre nagyobb figyelmet kap, és olyan piacon startolna a ketyere ahol úttörő lenne. Az sem mellékes, hogy az nV közel másfél éve nem voltoztatott a GPU architektúráján, tehát eleve minimális költségvetéssel dolgoznak már most is. Többet pedig aligha költenek rá az elkövetkezendő időkben, mert az Intel befolyása sokkal nagyobb, és saját platform nélkül nem lehet versenyezni még az AMD-vel sem.
Szóba került még, hogy megveszik a VIA-t, de sokra nem mennekvele, mert technológiában túl nagy a lemaradásuk.
#195483 Gpety 2008. március. 27. 07:34
Gpety
#195376 :: CHRISTOPHER (2008. március. 26. 19:01)
Sziasztok miért búg az ATI RADEON 9600 XT(256mb) videó kártya???Be kapcsoláskor is szokott búgni azt mindig szokta csinálni de mondták, hogy be melekszik de már ki kapcsolásig búg a videókártya tehát addig amig ki nem kapcsolom a gépet légyszí segítsetek elöbb nem válaszoltatok!Elöre is kösz a segítséget.
CHRISTOPHER írta:

Sziasztok miért búg az ATI RADEON 9600 XT(256mb) videó kártya???Be kapcsoláskor is szokott búgni azt mindig szokta csinálni de mondták, hogy be melekszik de már ki kapcsolásig búg a videókártya tehát addig amig ki nem kapcsolom a gépet légyszí segítsetek elöbb nem válaszoltatok!Elöre is kösz a segítséget.


A hűtőventilátor kopott/poros de lehet hogy csak kevés a kenése. A legegyszerűbb megoldás az ha kiveszed a kártyát, leveszed a ventilátoron lévő kis matricát, és az ott található lyukon, ami a csapágynál van egy-két csepp műszerolajat/igen finom parafinolajat/szilikonolajat cseppentessz (mondjuk egy varrótű segítségével)bele- növényi eredetű olajat tilos! Ha ezzel végeztél töröld meg az esetleg szétkenődött olajtól a venti tetejét és ragaszd le egy darab szigetelő szalaggal, hogy ne kerüljön a csapágyhoz por és hogy ne follyon ki a kenőanyag, mivel a gravitáció ellen mást nem nagyon lehet tenni. Vannak olyan VGA ventik amiknél alul van ez a lik, azoknál le kell szedni a ventit és alulról megkenni. Ezzel a megoldással gyakorlatilag ingyen megoldod a problémát és tuti, hogy még legalább 1 évig hangtalan lesz a VGA-d, mégha kopott is az a csapágy.
Ha nem akarsz barkácsolni, akkor ~3ezer forinttól már lehet Radeon 9600-ra való új hűtést kapni-igaz annak a felrakása is barkácsot igényel.
#195481 Zeroo93 2008. március. 27. 07:24
Zeroo93
#195477 :: Gpety (2008. március. 27. 07:13)
Abu85 írta: A jövőben az nV-nek másodlagos piaca lesz a grafikus chipek fejlesztése, így a lehető legkisebb befektetéssel akarják fenntartani azt.
Na remélem ezt te sem gondoltad komolyan. Az Nv rengeteg pénzt öl a VGA fejlesztésbe, továbbra is piacvezetők lesznek, mivel annak ellenére, hogy az ATI azért most viszonylag jó kártyákat csinál nem nagyon villog a piaci részesedés megszerzésében-árakt kellene csökkenteni, mert a konkurencia bizony ebben is jobb. Egyébként nem győzöm hangsúlyozni, hogy messzemenően ATI párti vagyok egészen azóta, mióta a geforce2-ről átváltottam Radeon 8500-ra, az pedig nem ma volt és azóta is csak ATI kártyát veszek. Viszont nem vagyok elvakult, mert azért a józan ész azt diktálja hogy bizony röpködhetnek itt a Dx10.1 tulajdonságati dicsőítő szavak, a mostani 8800/9600 geforce-ok jobbak a játékokban, a DX10.1 pedig még meg sem jelent, nemhogy játék készülne rá. Addig még azért várni kell vagy 1,5-2 évet amíg tényleg olyan játék lesz, ami a DX10.1 -et támogatja és azok is biztosan kompatibilisek lesznek a Dx10-el.
Hangsúlyozom, hogy még a directx10 sem forrott még ki nem, hogy még a fejlesztők +-ba a javított
verzióra programozzanak.
#195477 Gpety 2008. március. 27. 07:13
Gpety
#195471 :: Abu85 (2008. március. 27. 06:17)
Mert az nV-nek komoly pénzt kellene beleülni a DX10.1 támogatáshoz, lévén át kell dolgoznia jelentősen az architektúrát. A jövőben az nV-nek másodlagos piaca lesz a grafikus chipek fejlesztése, így a lehető legkisebb befektetéssel akarják fenntartani azt. A pénz jelenleg ennek a fejlesztésére megy, mert erre a piacra szeretne az nV a jövőben elsődlegesen koncentrálni.
Abu85 írta:

A jövőben az nV-nek másodlagos piaca lesz a grafikus chipek fejlesztése, így a lehető legkisebb befektetéssel akarják fenntartani azt.


Na remélem ezt te sem gondoltad komolyan. Az Nv rengeteg pénzt öl a VGA fejlesztésbe, továbbra is piacvezetők lesznek, mivel annak ellenére, hogy az ATI azért most viszonylag jó kártyákat csinál nem nagyon villog a piaci részesedés megszerzésében-árakt kellene csökkenteni, mert a konkurencia bizony ebben is jobb.
Egyébként nem győzöm hangsúlyozni, hogy messzemenően ATI párti vagyok egészen azóta, mióta a geforce2-ről átváltottam Radeon 8500-ra, az pedig nem ma volt és azóta is csak ATI kártyát veszek.
Viszont nem vagyok elvakult, mert azért a józan ész azt diktálja hogy bizony röpködhetnek itt a Dx10.1 tulajdonságati dicsőítő szavak, a mostani 8800/9600 geforce-ok jobbak a játékokban, a DX10.1 pedig még meg sem jelent, nemhogy játék készülne rá. Addig még azért várni kell vagy 1,5-2 évet amíg tényleg olyan játék lesz, ami a DX10.1 -et támogatja és azok is biztosan kompatibilisek lesznek a Dx10-el.
#195471 Abu85 2008. március. 27. 06:17
Abu85
#195451 :: reaper.1911 (2008. március. 26. 21:49)
Ok, h előbb kell a VGA mint a játék de a DX10 még bőven elég 1.5-2 évig (szerintem) Szerintem tehát teljesen feleslegesek még a DX10.1-es VGA-k...és lehet benne valami mert az NVidia se csinálta DX10.1-esre a 9-es szériát - és ha megnézed a játékok 95%-a NVidia-s. De tőlem jöhetnek az ATI DX10.1-es kártyái nem zavar! Úgyse veszek többet ATI-t!
Mert az nV-nek komoly pénzt kellene beleülni a DX10.1 támogatáshoz, lévén át kell dolgoznia jelentősen az architektúrát. A jövőben az nV-nek másodlagos piaca lesz a grafikus chipek fejlesztése, így a lehető legkisebb befektetéssel akarják fenntartani azt.
A pénz jelenleg ennek a fejlesztésére megy, mert erre a piacra szeretne az nV a jövőben elsődlegesen koncentrálni.
#195470 Abu85 2008. március. 27. 06:13
Abu85
#195448 :: reaper.1911 (2008. március. 26. 21:35)
Többen írtátok h a GX2-nek már DX10.1esnek kellene lennie....minek? A Crysis-ból mit hozott ki a Crytek nem is igazi DX10-es effektekkel?....még a GTX is megizzad 1-2 résznél! Rengeteg lehetőséget tartogat még a DX9 is a DX10-ről meg nem is beszélve. Szerintem teljesen feleslegesek még a DX10.1-s VGA-k. Majd 2-2.5 év múlva
Mit hozott ki a Crytek a Crysis-ból? ... 15-20FPS-t max grafikán csúcskarikon? Én erre nem lennék büszke.
#195457 reaper.1911 2008. március. 26. 22:05
reaper.1911
#195455 :: R.I.P. (2008. március. 26. 21:58)
Hagyjuk....
Szerintem is...
ilyenen nem éri meg összeveszni
#195455 R.I.P. 2008. március. 26. 21:58
R.I.P.
#195451 :: reaper.1911 (2008. március. 26. 21:49)
Ok, h előbb kell a VGA mint a játék de a DX10 még bőven elég 1.5-2 évig (szerintem) Szerintem tehát teljesen feleslegesek még a DX10.1-es VGA-k...és lehet benne valami mert az NVidia se csinálta DX10.1-esre a 9-es szériát - és ha megnézed a játékok 95%-a NVidia-s. De tőlem jöhetnek az ATI DX10.1-es kártyái nem zavar! Úgyse veszek többet ATI-t!
Hagyjuk....
#195451 reaper.1911 2008. március. 26. 21:49
reaper.1911
#195449 :: R.I.P. (2008. március. 26. 21:39)
Tudod előbb kell elkészülnie a technológiát támogató kártyáknak, mert a játékfejlesztők nem fogják hasraütéssel kitalálni, hogy mit kell csinálni, hanem valamihez igazodni kell.
Ok, h előbb kell a VGA mint a játék de a DX10 még bőven elég 1.5-2 évig (szerintem)
Szerintem tehát teljesen feleslegesek még a DX10.1-es VGA-k...és lehet benne valami mert az NVidia se csinálta DX10.1-esre a 9-es szériát - és ha megnézed a játékok 95%-a NVidia-s.
De tőlem jöhetnek az ATI DX10.1-es kártyái nem zavar! Úgyse veszek többet ATI-t!
#195449 R.I.P. 2008. március. 26. 21:39
R.I.P.
#195448 :: reaper.1911 (2008. március. 26. 21:35)
Többen írtátok h a GX2-nek már DX10.1esnek kellene lennie....minek? A Crysis-ból mit hozott ki a Crytek nem is igazi DX10-es effektekkel?....még a GTX is megizzad 1-2 résznél! Rengeteg lehetőséget tartogat még a DX9 is a DX10-ről meg nem is beszélve. Szerintem teljesen feleslegesek még a DX10.1-s VGA-k. Majd 2-2.5 év múlva
Tudod előbb kell elkészülnie a technológiát támogató kártyáknak, mert a játékfejlesztők nem fogják hasraütéssel kitalálni, hogy mit kell csinálni, hanem valamihez igazodni kell.
#195448 reaper.1911 2008. március. 26. 21:35
reaper.1911
Többen írtátok h a GX2-nek már DX10.1esnek kellene lennie....minek?
A Crysis-ból mit hozott ki a Crytek nem is igazi DX10-es effektekkel?....még a GTX is megizzad 1-2 résznél!
Rengeteg lehetőséget tartogat még a DX9 is a DX10-ről meg nem is beszélve.
Szerintem teljesen feleslegesek még a DX10.1-s VGA-k. Majd 2-2.5 év múlva
#195443 R.I.P. 2008. március. 26. 21:23
R.I.P.
#195376 :: CHRISTOPHER (2008. március. 26. 19:01)
Sziasztok miért búg az ATI RADEON 9600 XT(256mb) videó kártya???Be kapcsoláskor is szokott búgni azt mindig szokta csinálni de mondták, hogy be melekszik de már ki kapcsolásig búg a videókártya tehát addig amig ki nem kapcsolom a gépet légyszí segítsetek elöbb nem válaszoltatok!Elöre is kösz a segítséget.
CHRISTOPHER: tönkrement a venti. Csere

gergo: ránts rajta még 300mhz-et és simán.
#195437 gergo 2008. március. 26. 21:13
gergo
#195376 :: CHRISTOPHER (2008. március. 26. 19:01)
Sziasztok miért búg az ATI RADEON 9600 XT(256mb) videó kártya???Be kapcsoláskor is szokott búgni azt mindig szokta csinálni de mondták, hogy be melekszik de már ki kapcsolásig búg a videókártya tehát addig amig ki nem kapcsolom a gépet légyszí segítsetek elöbb nem válaszoltatok!Elöre is kösz a segítséget.
Melyik az a legkisebb proci, ami egy HD3850t kihajt? Egy C2D E4600 már teljesíti a feladatot?
#195205 Ragnos 2008. március. 26. 15:03
Ragnos
A válasz a cube map tömbkezelésre:
Sehogy. A DX10.1 újítása. A DirectX SDK dokumentációjában láttam korábban.

Egyébként valaki kérdezte, hogy mikor jön a 4xxx sorozat. Ha jól tudom, akkor 2008.június
#195172 Abu85 2008. március. 26. 13:55
Abu85
#195107 :: Gpety (2008. március. 26. 12:22)
Nem számít mennyi objetum van, a sebesség álandó... Megnézném milyen vas ment a demó alatt, nem hinném hogy egy celeron+3850 párosítás. Könnyen meglehet, hogy 4db jobbfajta DH kártya ízzadt a gépben valami Core2 Quad mellett néhány giga memóriával.
Phenom 9600+, HD3870
Nem nagy durr az vasigénye. A sebesség pedig azért állandó, mert minden képkockaszámításnál ugyanazt csinálja a Cube capture pont.
#195107 Gpety 2008. március. 26. 12:22
Gpety
#195098 :: Abu85 (2008. március. 26. 12:07)
Valszeg ha régi eljárásokkal csinálnád meg a demó effektjeit akkor közel járna a sebesség a 0 FPS-hez. Az oké, hogy az Envinromental Reflection nem új dolog, de valós időben 3000 pinyólabdával használható sebességgel azért még senki sem csinálta meg eddig. Erre próbál utalni a muki amikor mondja, hogy az új eljárásokkal nem számít mennyi objektum van a képen a sebesség állandó.
Nem számít mennyi objetum van, a sebesség álandó...
Megnézném milyen vas ment a demó alatt, nem hinném hogy egy celeron+3850 párosítás. Könnyen meglehet, hogy 4db jobbfajta DH kártya ízzadt a gépben valami Core2 Quad mellett néhány giga memóriával.