Jelenleg meg valaban kielegito teljesitmenyt nyujt ,de ettol meg nemkedveltem meg.
Grat az irashoz
Jelenleg meg valaban kielegito teljesitmenyt nyujt ,de ettol meg nemkedveltem meg.
Grat az irashoz
hát szerintem pont elég, ennél persze lehetne jobb, de ésszerű felbontásokon remekül zakatol
Az írás fanya
Ahhoz képest, hogy neked is 9600GT-d van az adatlapodon...
Ha nemaz lenne nemlene jogom velemnyt alkotni 1 ismeretlen kartyarol.
Üdv!
Grat az íráshoz! Régen láttam ilyen szép, érthető kidolgozott grafikon és táblázatkezelést.
Nagyon tetszett, hogy a változó mennyiségek pirossal jelöltek, le a kalappal ezen megoldás előtt!
Nem tiszta viszont számomra, hogy a 10%-os emelés miért nem 10%?
Akkor lett volna értelme a tesznek ha a három mennyiség külön-külön 10%-ot változna,
így lehetne megcsinálni a cső diagram ötletes, szemléletes kialakítását.
A 10% helyett azonban a core 16.6%-ot, a shader 9.3%-ot, a mem 28%-ot változott.
Ha különbözőek ezek a százalékok, akkor nem érvényesek, ill nem igazak a csőgrafikon értékei.
A konklúzió is kicsit zavaros nekem, bár a százalékos probléma miatt talán nem is érdemes foglalkozni vele. Annyi azonban igaz, hogy eléggé különböznek a játékok és ember legyen a talpán aki meg tudja jósolni a jövőt.Az ATi viszont érdekes módon a 4xxx-es sorozattal megtartva a számításigényes beállítottságát, közeledett az nV diktálta feltételekhez, az SM2.0, SM3.0 és AA nem az ATi kártyák terepe volt, mint ahogy a DX10
SM4.0 az nV számára nehéz feladat, legalábbis annak korrekt megoldása.
Ezekután kinek lesz igaza?
Remekül kidolgozott írás, de Fagynak igaza van. 700/1750/900-ról 630/1575/810-re lett volna célszerű állítani.
Pontosabban:
630/1750/900
700/1575/900
700/1750/810 és az alap: 700/1750/900
azt a leborult szivarvégit neki, a nagy szerkesztésben kimaradt a cikkből, honnan jönnek a százalékok jó, hogy szóltál, beletettem:
"A teszteredményekből kiszámítható, hogy az egyes órajelek változtatása hogyan hat a teljesítményre – a kapott arányokat az összehasonlíthatóság érdekében 10%-ra normáltam, azaz pl. ha 20%-os órajel-változás 8%-os változást hoz a teljesítményben, akkor a normált eredmény 4% lett."
a konklúzióval mi a gond? szívesen igazítok rajta, ha nem érthető valahol.
Így gondoltam én is, csak lusta voltam külön-külön leírni!
Gbors: Lehet, hogy a mért értékek nem egyenes arányban változnak a %-kal, azért lett volna jobb talán a 10-10-10%. Na de inkább befogom, mert én még egy cikket sem írtam ide, mondjuk amennyit mostanság fórumozok...
[ Szerkesztve ]
Sejtettem valahol, hogy így csináltad, mert másképpen nem jöhettek ki ezek a "vad" értékek. Már csak az a gondom, hogy bár kb stimmelnek is, un. papírforma, de mivel a játékok ennyire különbözőképpen érzékenyek ezen mennyiségek változásaira, hogyan milyen játékban mérted ki az azonos teljesítményváltozást?
Első olvasatra nem igazán tudtam leszűrni a lényeget a konklúzióban, lehet hogy bennem van a hiba, de valahogy az elolvasása után sem tudom biztosan, hogy hova tegyem a 96GT-t. Persze nagyon hiányoznak a 88GT tesztjei, mert ez így elég féloldalas.
Nem elég biztató nekem, hogy a játékgyártók belátására vagyok bízva, akkor inkább a jövőt nézve, rohanok lecserélni 88GT-re vagy HD 4xxx-re. Én ezt szűrtem le a teszteredményekből.
"Már csak az a gondom, hogy bár kb stimmelnek is, un. papírforma, de mivel a játékok ennyire különbözőképpen érzékenyek ezen mennyiségek változásaira, hogyan milyen játékban mérted ki az azonos teljesítményváltozást?"
Na ezt most én nem értem
A konklúzióban 2 dolgot akartam kihozni:
- A 2008 előtti játékokban 4xAA mellett nem véletlen, hogy a 96GT a 88GT nyakán liheg - csak az egyforma sávszélesség helyből lefelezi a 88GT 60%-os "előzési potenciálját", és akkor a ROP-okról még szó sem esett.
- Az újabb játékokban sem törvényszerű, hogy a 96GT súlyos kárára válik az ALU:TEX arány növekedése - de ha arra számítasz, hogy az Unreal Engine 3 által kijelölt irányban lesznek további lépések, akkor tényleg időszerű VGA-t cserélned.
A 88GT tesztjei a Vegas-hoz valóban kellenének, a többi esetben max. validációként érdekesek - teljesen jól látszik, hogy mind a GRID, mind az AC a magasabb shader-teljesítményre gyúr, még jobban, mint a WiC és a Crysis.
forceberg: a 10-10-10 már ott bukik, hogy a memória órajel 10%-os módosítása sokszor alig kimérhető, ezért szörnyen torzítaná az eredményt. amúgy, ahogy írtam az elején, másik teszthez készített méréseket használtam fel, és ott eléggé adottak voltak az órajelek...
[ Szerkesztve ]
Én úgy értem, hogy pl a mem órajelet 28%-kal kellett megváltoztatnod, hogy a VGA teljesítménye 10%-ot változzon.A core órajelét 16.6%-kal a VGA teljesítményének 10%-os megváltoztatásához stb. Nem minden játékra igazak ezek a számok, egy másik játékban lehet, hogy a mem 20%-os változtatása jelent 10%-os teljesítményváltozást.
Ezek a 16.6/9.3/28%ok játéktesztek átlagaként jöttek ki?
Másképp egyelőre nem tudom megfogalmazni.
Végigolvastam. Gratula hozzá, igazán jó írás, akár a PH! tesztek között is megállná a helyét!
Egyetlen egy dolog szúrta a szemem:
a játékgyártók minden bizonnyal figyelembe veszik, mennyi ilyen kártya szaladgál a piacon
Ezt ugye nem gondoltad komolyan! Ha igen, akkor kiábrándító leszek: sztem egyáltalán nem fognak vele foglalkozni. Leginkább most, mikor az elmúlt 2-3 évhez viszonyítva elég jó áron lehet kapni a hardvert. Azt mondják: "eriggy a bótba, vegyél jobbat, vagy jáccá 800x600-ba"...
Ennke ellenére mégegy neked.
Béke!
sztem is inkább az a hihető, hogy vidia meg amd managerek egy táska pénzt, meg backup ígéretet letesznek a fejlesztők asztalára, és csak annyit kérnek cserében, hogy csúcskarikra legyen optimalizálva.
Azt mondják: "eriggy a bótba, vegyél jobbat, vagy jáccá 800x600-ba"
Ez egyáltalán nem érdeke a játékfejlesztőknek, mint ahogy neked sem az, hogy kéthavonta új VGA-t vegyél.
JoeYi: az a "backup" az nem support akart lenni?
"Másképp egyelőre nem tudom megfogalmazni."
Nem baj, így már értem
Nem így számoltam. Konkrét példán keresztül:
F.E.A.R., 4xAA:
- 900MHz-es memória órajellel 92.3fps
- 702MHz-cel 79.3fps
- Különbség a memória órajelek között: 28.2%
- Különbség az fps-ek között: 16.4%
- Ebből lineáris interpolációval kiszámolható, hogy a memória-órajelek közötti 10% különbség 5.8% különbséget hozna az fps-ben - ez került a táblázatba
Remélem, így érthetőbb a dolog. A lényeg annyi, hogy az eredmények korrektek, azokat több oldalról is ellenőriztem, de attól tartottam is egy kicsit, hogy a hozzájuk vezető gondolatmenetet nem fogom tudni elég világosan leírni. Az meg, hogy a felét kihagytam, nyilván nem segített
A %-ok onnan jöttek, hogy a 8800GT VS 9600GT teszthez próbáltam olyan órajeleket belőni, ahol a két kártya sebessége 1:1, ill. 1.5:1. Az így megcsinált 9600GT teszteket akartam itt is felhasználni - de lehet, hogy többet nem csinálom így, mert visszatekintve sokkal egyszerűbb lett volna, ha pl. a 715/1750/990 és a 596/1450/825 órajelek között alternálok. Mindig tanul valamit az ember...
Köszönjük gbors. Nagyon igényes lett, mint mindegyik írásod. Bár én inkább ATI-s vagyok, valahogy mindíg elgondolkozok egy 9600GT-én.
Bocsi, hogy "beleszólok" a beszélgetésbe. Nekem is tetszett a cikk, viszont nem nagyon értettem az eredményeket - hasonló gondjaim voltak mint fagy53-nak. A lényeg, hogy elolvasva a hsz-eket nekem már tisztább a kép és várom már a 8800GTvel összehozott tesztet.
Javasolnám továbbá a jövőbeni folytatást, amolyan konklúzió ellenőrzés képen, vajon amit "jósolsz" bejön-e?
Még egy apróság: kimaradt a 4. pont a tesztből!
Jó kis cikk, köszi!