AMD GPU-k jövője - amit tudni vélünk - Videokártyák fórum

üzenetek

hozzászólások


X2N
(senior tag)

Te olyan dolgokat állítasz be ténynek amik mérési hibának is beillenek. Gratulálok. :C Csak az ssd sebesség miatt van értelme beruházni egyáltalán X570-es alaplapokba, mindenki más jobban jár egy régebbi szériás alaplappal aminek nem fog beszarni 1 év után a chipset hűtőventillátora. Az amd kártyái a közelében sincsenek a PCIE 3.0 korlátainak, A Titan V közelíti meg, csak de ott is elhanyagolható a sebesség különbség. Az a legnagyobb vicc hogy a legtöbb TRX40-es alaplap alapból alkalmatlan 4 vagy több kártya kihasználására, függetlenül attól hogy van-e rajta PCIE 4.0.


Abu85
(HÁZIGAZDA)
Blog

A mérési hiba az más. A helyzet nagyon egyszerű. Valójában még az x16-os PCI Express 4.0 sávszélessége is kevés a VRAM sebességéhez képest, tehát erre nem éri meg erősen építeni a szoftver oldaláról. Ugyanakkor egy játék is belefut helyenként olyan limitekbe, amelyek ugyan léteznek, de mindössze a teljes játék 0,0000000000000001%-át alkotják. Tehát ha információd arról, hogy az adott játék milyen jelenetsor során terheli a legjobban a PCI Express interfészt, akkor kizárt, hogy ki tudd mérni a 2.0, a 3.0 és a 4.0 között a különbséget. De ha erről van tudomásod, akkor sokkal egyszerűbb a helyzeted, mert tudatosan fel tudod úgy építeni azt a tesztet, hogy a játéknak azt az aprócska szeletét erőltesd, és ott már lesz különbség a csatolók között. Csak ahogy írtam ez mond rendkívül mesterséges körülmény, ami a valóságot nem reprezentálja, így ha ezeknek a körülményeknek az előállítására nem törekedsz tudatosan, akkor azt az eredményt kapod a PCI Express befolyásolása szempontjából, amit a TPU kapott. Ezt linkeltem a hsz-ben, amire reagáltál.

Ahol a PCI Express 4.0-s VGA igazán számít azok a professzonális alkalmazások. Ott azért találni olyan feladatot, ahol van olyan valós körülmény, ahol ebből előnyt lehet kovácsolni. Mi is találtunk: [link] - akinek erre kell VGA, nyilván törekedjen PCI Express 4.0-ra, de játékra igazából felesleges, mert a játékmenet 99,9999999%-ában nincs előnye, a maradékot pedig túl lehet élni.

[ Szerkesztve ]


X2N
(senior tag)

Szerintem egy gyorsabb memóriával (2 x 8 GB ADATA XPG Spectrix D40 DDR4-3000 (2 modul a AX4U300038G16-QRS kitből) @DDR4-2933, CL16, 1T) jobb eredményt értetek volna el mint ezzel a PCIE 3.0 4.0 összehasonlítgatással. :DD Egy X470 lappal és jobb rammal gyorsabb lett volna, mint egy PCIE 4.0-ás lappal.


b.
(félisten)
Blog

Hogy említheted a BRAW-t egy lapon egy játék által nyújtott PCIE terheléssel? tudod a BRAW milyen xtrem módon küldi meg ilyenkor az interfészt és hogy ehhez egy játék sehol sincs semmilyen általad említett extra jelenetben még 200 % resolution mellett sem 4 K ban?Még a legjobb motorok sem képesek értékelhető különbséget produkálni ...
És még erre is azt mondom hogy az általad linkelt mérésben sem a PCIE 3.0 volt az igazán korlátozó hanem a RAM...

[ Szerkesztve ]


Abu85
(HÁZIGAZDA)
Blog

Úristen. Olvasd már el mit írok.

(#44983) X2N: A BRAW-ban akármit raksz mellé, bizonyos részletességen túl mindenképpen a PCI Express lesz a limit. Ezért választottuk ezt a programot demonstrációra, mert a Blackmagic írta, hogy náluk a 4.0 előnye tuti kijön.

Egyébként az AMD is ezt a programot javasolja, mint valós körülmény. A professzionális alkalmazások között kell keresgélni, hogy a PCI Express 4.0-nak megmutasd a hatását. Máshol nincs igazán jelentősége.

[ Szerkesztve ]


b.
(félisten)
Blog

elolvastam:.

"Tehát ha információd arról, hogy az adott játék milyen jelenetsor során terheli a legjobban a PCI Express interfészt, akkor kizárt, hogy ki tudd mérni a 2.0, a 3.0 és a 4.0 között a különbséget. De ha erről van tudomásod, akkor sokkal egyszerűbb a helyzeted, mert tudatosan fel tudod úgy építeni azt a tesztet, hogy a játéknak azt az aprócska szeletét erőltesd, és ott már lesz különbség a csatolók között."

Ez egy hülyeség szerintem...
Nézd már meg milyen különbségek vannak a tesztben. nem pár tized százalékról beszélünk. Hogy a fenébe lehetne BÁRMILYEN jelenettel így megterhelni a PCIE3.0-t x 16 nál
ezekben a játékokban? meg persze hogy lehetett 8X re engedni ilyen eredménykülönbségek tükrében?
Szerintem valami nem egészen kóser itt nem lehetne ekkora differencia véleményem szerint. Majd kíváncsi leszek Igorra mit reagál erre.

[ Szerkesztve ]


X2N
(senior tag)

A valós körülmény lehet pl egy 8K videó feldolgozása. :D Ott talán számít hogy a háttértár/vga 3.0 /4.0? Csak a RED kamera több mint 50e dollár szóval nem valószinű hogy bárki érintett lenne. :))


arabus
(addikt)
Blog

Nem PCIE3.0 8X-re engedték,hanem PCIE4.0-8X-re ami egyenértékū.
Más kérdés hogy csak ryzen 3000-hez ajánlott.


Abu85
(HÁZIGAZDA)
Blog

Egészen egyszerűen. Valójában a játékokban a PCI Express terhelése azért alacsony, mert tudatosan erre építik fel a működést. De előfordulnak olyan helyzetek, amikor nehéz úgy optimalizálni a rendszert, hogy a terhelés minimalizálva legyen. Klasszikus példa a streaming, amikor a textúrák jelentős része a rendszermemóriában van, és onnan kerül át a VRAM-ba, amikor erre szükség van. Főleg a virtuális textúrázást használó játékok esetében (AC: Origins és Odyssey, Battlefield 4-től kezdve az összes, új Wolfenstein 1-2) vannak olyan jelenetek, ahol pusztán a jelenet felépítése miatt ez a terhelés valamivel nagyobb, mint a játék jó részében, és ha bizonyos útvonalat követsz, majd többször bejárod, akkor nagyon meg lehet hülyíteni a megatextúrázó rutint. Ilyenkor mesterségesen ki tudod hozni a PCI Express 4.0 előnyét, mert gyakorlatilag kihasználod a fellépő tipikus problémákat, ideértve a VRAM beszemetelését. De ahogy írtam, senki sem fog úgy játszani, hogy direkt kihasználja az adott motor streaming hibáit, mert ilyenek vannak, nem tökéletesek ezek a programok, de nem baj, mert szökőévente, ha egy ember belefut a százezerből. Emiatt nincs is értelme ezt tovább optimalizálni, mert valós problémát nem okoz, rendbe hozni pedig drága lenne, így jó az a játék így is. Viszont nyilván az AMD rengeteget monitorozza a játékokat, így tudják, hogy mit és hol kell csinálni, hogy x-y címben valamennyire meghülyítsék a streaminget, amit megcsinálhatnánk mi is, csak ugye miért tennénk? Erősen mesterséges körülmény lenne, amit a valóság nem igazán igazol.

[ Szerkesztve ]


b.
(félisten)
Blog

Köszi ez azért fontos adalék de én is azt írtam. :K
Az eredmények meg sajnos magukért beszélnek hogy még sem azonos az 5500XT szempontjából a két PCIE. FC alatt meg kifejezetten vagy pedig egyáltalán nem ez a probléma.

[ Szerkesztve ]


Abu85
(HÁZIGAZDA)
Blog

Alapvetően azonos, csak ha rájátszol erre a dologra, akkor bármilyen hardverek ki tudod ezt hozni. Nem véletlen az a játékválasztás. Csupa megatextúrázó cím, ahol be lehet hülyíteni a megatextúrázót. Az AMD el is árulta a nyáron, hogy miképp kell csinálni.
Az FC5 is megatextúráz. Nézzék meg egy olyan címben, ahol nem lehet ezt megcsinálni. Ja, hogy ott nincs különbség? Akkor nincs szenzáció sem, és nincs kattintás. ;)

(#44992) b. : A programokon belül természetesen orvosolható, de azért nem látsz erre túl nagy erőfeszítést a fejlesztők részéről, mert ha normálisan játszol, akkor jelenleg képtelenség előnyt kovácsolni a PCI Express 4.0-ból. Egyszerűen nem válik limitté. De ha a streaming algoritmus problémáira tudatosan rájátszol, akkor természetesen az lehet, csak én még nem láttam játékost úgy játszani, hogy megadott útvonalon fut körbe körbe, és rángatja az egeret. Ez hülyeség. Ezt nem kell javítani, mert ilyet egy játékos nem csinál, de még ha csinál is, akkor sem tudja, hogy pontosan hol kell az adott játékban. Az AMD-nek könnyű, ők azért látják, hogy mit csinál a játék a VRAM-ban, tehát ki tudnak találni olyan szimulációkat, ami belimitálja a buszt. Ezt sokszor a fejlesztők sem látják egyébként. Nem téma ezzel foglalkozni, mert jó eséllyel senkinek sem jön elő, aki játszik vele. A gyártók pedig azért csinálják ezt, hogy hatékonyabb drivereket tudjanak írni, nekik nyilván hasznos egészen extrém szituációkat szimulálni, ami otthoni szinten nem realitás. Jelen pillanatban a valóság a PCI Express 2.0, 3.0 és 4.0 tekintetében ez: [link]

Ami a Navi esetében specifikus, és driverrel orvosolható az a memóriamenedzsment. Mint írtam az AMD nem portolta az összes GCN optimalizálást a Navira, mert nem mindegyik működik jól, illetve a DirectX 11-es meghajtó már nem fókusz.

[ Szerkesztve ]


b.
(félisten)
Blog

ezt tudják orvosolni amúgy valami módon ?

[ Szerkesztve ]


Jack@l
(veterán)

Akkor megkérdezem mégegyszer, mert látom nem volt világos mi a bibi:
Szóval ha amd tudta hogy jócskán szarabb lesz 8x pci express 3-al (tehát hardveresen 8 lane-el) még ez a kis kártya is, akkor mért raktak rá ennyit? Mert az utóbbi 10 vagy több évben se találkoztam ilyennel vga-nál, csak 16x-ossal.
A bullshittől kimélj meg légyszi: "hogyha átváltjuk mi mennyi".

[ Szerkesztve ]


Petykemano
(veterán)

tehát behozzák a vágott navi 10-et
$250+20 és $300+20-ért
a Vega 56 és vega 64 helyére. Ugyanaz a teljesítmény, picit drágábban, 30%-kal kevesebb fogyasztással.


AtomSiló
(lelkes újonc)

"Ugyanaz a teljesítmény, picit drágábban, 30%-kal kevesebb fogyasztással."
Honnan ismerős ez a mondat annyira ? :D
ja az 5500xt-nél olvastam.


Z10N
(veterán)

Meglepodtunk, "Vincent"?!

Amugy ez egybevag a tegnapival.

GIGABYTE preparing Radeon RX 5600 XT

"Board partners are very enthusiastic about this particular Radeon model, just as they were about Radeon RX 5500 series till AMD decided to make it… less cost-effective solution that they expected."

De amugy Igor is megmondja a frankot:
"It’s no secret that AMD’s Radeon RX 5500 XT is currently selling rather sluggishly, as the cards on offer are simply too expensive for what many customers are bidding. On average even slower than an old Radeon RX 590 as the last Polaris iteration, this card is nothing more than a much too expensive side-grade and actually only a replacement for the even older Radeon RX 580. And that’s exactly where AMD has created a problem for itself, because while the RX 590 has already been set EOL, the RX 580 will, according to internal sources correctly, still be available well into 2020. This is pure self-cannibalism and not a good starting position for the Radeon RX 5500 XT."

Ui: Csak halkan megjegyeznem, hogy $185-ert vettem most Vega56-t.

[ Szerkesztve ]


Z_A_P
(addikt)

Ui: Csak halkan megjegyeznem, hogy $185-ert vettem most Vega56-t.

Mennyi gari van ra es hova?


Raymond
(félisten)
Blog

Most mar johet mert kiszortak az osszes V64 es V56-ot (ahogy nezem mar csak minimalis bentragadt raktarkeszel van irrealis arakon) igy nincs semmi amit az utobbi honapokban 250EUR korul osztogatott V56 helyett arulhatnanak.


Petykemano
(veterán)

Találgatás
A srác szerint az xbox nagy dobása a modularitás lesz, moduláris fejleszthetőség. (Ezért hívják sorozatnak)
Valóban, az xbox ház kinézete elég formabontó.

Az jutott eszembe, hogy az Apple-ön kívül akár ide is megfelelne a vágatlan navi 14. Olcsó változatnak, 1080p játékhoz épp elegendő.

üzenetek