A S.T.A.L.K.E.R. tulajdonképpen az elmúlt jó pár esztendő legnagyobb vállalkozása volt -- egy FPS játék, a nyílt világ ígéretével, ahol a cselekedeteink befolyásolnak mindent, ez bizony döfi! Kár lenne tagadni, hogy bár a valóság és az eredeti elképzelés köszönőviszonyban sem voltak szinte egymással, igen ígéretes, hangulatos FPS darab került ki a fejlesztők kezei közül, akik ráadásul, hála a remek eladásoknak, megkapták az esélyt, hogy valóra váltsák a víziót, amelyet megálmodtak, amikor először leültek átbeszélni, milyen játék is legyen a S.T.A.L.K.E.R. A Clear Sky küldetéslemez nem ígér sokat, csak annyit, hogy pont olyan lesz általa a játék, amilyennek eredetileg eltervezték, mostantól fogva pedig már azt is tudjuk, milyen gépre lesz szükségünk, ha szeretnénk otthon is kipróbálni.
Azt, hogy minimum operációs rendszernek XP-re, Windows 2000-re, vagy Vistára lesz szükség, már nem valószínű, hogy meglepne bárkit is. A Pentium IV 2.0 GHz-es, illetve AMD XP 2200+-os processzor az első kellemes csalódás a sorban, amelyet a fél gigabyte RAM, és a mindösszesen 128 megás, minimum GeForce 5700-as, vagy ATi Radeon 9600-as kaliberű videokártya tesz még inkább elképesztővé -- ennyire kevés kellene ahhoz, hogy magunkévá tegyük ezt a kis nukleáris csodát? Persze ahhoz, hogy a játék hasonlítson a képekre és a videókra -- ne pedig a Half-Life első részével fusson szépségversenyt --, már kissé nagyobb, ajánlott konfiguráció szükséges: operációs rendszernek csak és kizárólag Vistát, processzornak kétmagos Core 2 Duo E6400-ast vagy AMD 64 X2 4200-ast, videokártyából pedig 256 RAM-mal megáldott GeForce 8800-ast, vagy Radeon HD 2900-ast ajánlanak hőseink -- RAM-ból ilyenkor elfér úgy másfél giga, szabad helyből pedig mind a két esetben 10 GB-ra lesz szükség.
Azt, hogy minimum operációs rendszernek XP-re, Windows 2000-re, vagy Vistára lesz szükség, már nem valószínű, hogy meglepne bárkit is. A Pentium IV 2.0 GHz-es, illetve AMD XP 2200+-os processzor az első kellemes csalódás a sorban, amelyet a fél gigabyte RAM, és a mindösszesen 128 megás, minimum GeForce 5700-as, vagy ATi Radeon 9600-as kaliberű videokártya tesz még inkább elképesztővé -- ennyire kevés kellene ahhoz, hogy magunkévá tegyük ezt a kis nukleáris csodát? Persze ahhoz, hogy a játék hasonlítson a képekre és a videókra -- ne pedig a Half-Life első részével fusson szépségversenyt --, már kissé nagyobb, ajánlott konfiguráció szükséges: operációs rendszernek csak és kizárólag Vistát, processzornak kétmagos Core 2 Duo E6400-ast vagy AMD 64 X2 4200-ast, videokártyából pedig 256 RAM-mal megáldott GeForce 8800-ast, vagy Radeon HD 2900-ast ajánlanak hőseink -- RAM-ból ilyenkor elfér úgy másfél giga, szabad helyből pedig mind a két esetben 10 GB-ra lesz szükség.
Mivel a Clear Sky nV támogatott program nem lesz DX10.1 támogatása, helyette az AA-ra egy Deferred Supersapmling alapú élsimítást használnak. Ez egy éldetektáló algoritmust futtat a képkockán, és ahol él található ott blur shader lesz futtatva elsimítva a recéket. A baj, hogy ez a módszer rengeteg számítást követel így közel 50-80%-os teljesítményvesztést eredményez majd, az AA nélküli sebességhez képest.
Mivel a Clear Sky nV támogatott program nem lesz DX10.1 támogatása, helyette az AA-ra egy Deferred Supersapmling alapú élsimítást használnak. Ez egy éldetektáló algoritmust futtat a képkockán, és ahol él található ott blur shader lesz futtatva elsimítva a recéket. A baj, hogy ez a módszer rengeteg számítást követel így közel 50-80%-os teljesítményvesztést eredményez majd, az AA nélküli sebességhez képest.
"A deferred renderer is just incompatible with current hardware-assisted antialiasing, unfortunately (Hargreaves and Harris 2004). Thus, antialiasing becomes solely the responsibility of the application and the shader; we cannot rely on the GPU alone. Because aliasing itself arises from the mismatched frequencies of the source signal and of the destination discrete representation, a good approximation of an antialiasing filter is just a low-pass filter, which is simple blurring. This is a zero-cost operation in the console world, where any TV display works like a low-pass filter anyway. In the PC world, we need an alternative. Our solution was to trade some signal frequency at the discontinuities for smoothness, and to leave other parts of the image intact. This was performed in a way similar to the edge-detection filters used in nonphotorealistic applications: We detect discontinuities in both depth and normal direction by taking 8+1 samples of depth and finding how depth at the current pixel differs from the ideal line passed through opposite corner points. The normals were used to fix issues such as a wall perpendicular to the floor, where the depth forms a perfect line (or will be similar at all samples) but an aliased edge exists. The normals were processed in a similar cross-filter manner, and the dot product between normals was used to determine the presence of an edge.
The two detectors were then multiplied to produce a single value indicating how much the current pixel "looks like an edge." This value was used to offset four bilinear texture lookups into the composited (near-final) back buffer. The result was automatic weighting of samples with a very strong edge-detection policy that seamlessly handles edge and alpha-test/texkill aliasing without blurring other parts of the image.
There is one side note to this approach: the parameters/delimiters tweaked for one resolution do not necessarily work well for another; even worse, they often do not work at all. That is because the lower the resolution, the more source signal is lost during discretization, and blurring becomes a worse approximation of an antialiasing filter. Visually, you get more and more false positives, and the picture becomes more blurred than necessary. However, lowering the blur radius according to resolution works fine."
Szvsz nem nagyon lesz olyan egy GPU-s rendszer ami futtatni fogja a programot az Edge Detect algoritmussal.
"A deferred renderer is just incompatible with current hardware-assisted antialiasing, unfortunately (Hargreaves and Harris 2004). Thus, antialiasing becomes solely the responsibility of the application and the shader; we cannot rely on the GPU alone. Because aliasing itself arises from the mismatched frequencies of the source signal and of the destination discrete representation, a good approximation of an antialiasing filter is just a low-pass filter, which is simple blurring. This is a zero-cost operation in the console world, where any TV display works like a low-pass filter anyway. In the PC world, we need an alternative. Our solution was to trade some signal frequency at the discontinuities for smoothness, and to leave other parts of the image intact. This was performed in a way similar to the edge-detection filters used in nonphotorealistic applications: We detect discontinuities in both depth and normal direction by taking 8+1 samples of depth and finding how depth at the current pixel differs from the ideal line passed through opposite corner points. The normals were used to fix issues such as a wall perpendicular to the floor, where the depth forms a perfect line (or will be similar at all samples) but an aliased edge exists. The normals were processed in a similar cross-filter manner, and the dot product between normals was used to determine the presence of an edge.
The two detectors were then multiplied to produce a single value indicating how much the current pixel "looks like an edge." This value was used to offset four bilinear texture lookups into the composited (near-final) back buffer. The result was automatic weighting of samples with a very strong edge-detection policy that seamlessly handles edge and alpha-test/texkill aliasing without blurring other parts of the image.
There is one side note to this approach: the parameters/delimiters tweaked for one resolution do not necessarily work well for another; even worse, they often do not work at all. That is because the lower the resolution, the more source signal is lost during discretization, and blurring becomes a worse approximation of an antialiasing filter. Visually, you get more and more false positives, and the picture becomes more blurred than necessary. However, lowering the blur radius according to resolution works fine."
Szvsz nem nagyon lesz olyan egy GPU-s rendszer ami futtatni fogja a programot az Edge Detect algoritmussal.