AMD GPU-k jövője - amit tudni vélünk - Videokártyák fórum

üzenetek

hozzászólások


Alogonomus
(őstag)

AMD megvalósításában elvileg sokkal hatékonyabb lesz a raytracing, mert nem nyers erőből akarják majd megoldani. Aztán persze majd kiderül minden ősszel.
A fontosabb kérdés viszont szerintem az, hogy egyáltalán elért-e már oda a világ, hogy értelme lenne dedikált hardveres raytracing egységet tervezni egy 300 dolláros termékbe is, amivel az csak (szükségtelenül?) drágulna. Egyszerűbb szoftveres eredetű raytracing-imitálás már sok játékban egyébként is elérhető, komoly szintű raytracing pedig majd az új konzolokkal fog berobbanni, de az még nem idén lesz, PC-re pedig még annál is sokkal később érkezhet.


Pkc83
(őstag)

Igen , sokan gondolják azt , hogy majd a kisebb gyártástechnológia
miatt olcsóbbak lesznek a vga-k de a valóság nem ezt mutatja. sőt..
Még csak nem is egyenesen arányosan drágulnak a teljesítményükhöz képest.
Tehát ha lesz Rt az "olcsóbb" vga-kon is akkor azok már nem is lesznek
annyira olcsók.


gejala
(őstag)

"AMD megvalósításában elvileg sokkal hatékonyabb lesz a raytracing, mert nem nyers erőből akarják majd megoldani."
Akkor az bukta lesz. RT-nek az a lényege, hogy brutál számításigényes, cserébe fotorealisztkus végeredményre képes. Ha elkezdesz csalni a sugarakkal, akkor gyorsan a raszterizálásnál kötsz ki. Itt legfeljebb annyit lehet trükközni, hogy kicsit okoskodnak a távolságokkal játék szinten (főleg open worldben), mert különben megint ott tartunk, hogy a szobából hiányzik az árnyékok fele.

AMD $500 konzolokba hoz RT hardvert. Ha akarják, azt a szintet ki tudják adni PC-n is $300-350 kategóriában.

"komoly szintű raytracing pedig majd az új konzolokkal fog berobbanni, de az még nem idén lesz, PC-re pedig még annál is sokkal később érkezhet."
Jövőre már futószalagon jönnek majd RT játékok konzolra, miközben PC-re nem lesz újabb gen 2022 előtt. Tehát az idei szériának kell majd ezeket is jól vinnie. Amivel szerintem nem is lesz gond, hiszen Ampere esetén 4x gyorsulás várható RT-ben Turinghoz képest + inline RT-re váltás.
Ha meg 2022-ben jön még egy reális 2,5x gyorsulás, azzal már 10x gyorsabb lenne Turingnál, ami simán jó.

[ Szerkesztve ]


Busterftw
(veterán)

Inkabb lett volna 5600X, a "refresh" meg XT, mint most a prociknal. :K

Televan
A vallalhato sebessegu RT 2060 Supernel kezdodik (1080p), ami epp 150k.
Max ugy lesz olcsobb, hogy az Ampere utan valogatsz az olcsobb 2XXX szeriabol.

[ Szerkesztve ]


Petykemano
(veterán)

A vállalható sebességű RT nem azért kezdődik jelenleg a 2060S-nél, mert az RT a jelenlegi Turing szérián nagy performance hittel jár? (Amit persze próbálnak DLSS-sel kompenzálni)

De ha a nexgen RT (függetlenül attól, hogy az AMD vagy nvidia és hogy milyen megoldással) kisebb performance hit-et eredményez, akkor a jelenlegi 2060S tiernél alsóbb tier is futtathat értelmesen RT-t.
Elvileg.

Ez azt is jelenti, hogy egyáltalán nem biztos, hogy RT szempontjából jobban jársz majd egy használt 2060S-sel, mert lehet, hogy azt az RT teljesítmény egy új, alacsonyabb tier kártya is tudja majd. Olcsóbb persze nem biztos, hogy lesz, mint a használt.


Yutani
(nagyúr)
Blog

Semmiféle csalás nem lesz. DXR 1.0 vs DXR 1.1 a lényeg, ez utóbbi fejlettebb, nem annyira erőforrás igényes. Legalábbis nekem ez jött le abból, amit Abu írt eddig ebben a témában. Ez nem az AMD csalása, hanem a Microsoft új DXR verziója, csak hogy tisztázzuk.


Jack@l
(veterán)

Semmivel nem lesze kissebb performance hit, az új inline api csak arra jó hogy butább RT-t lehessen egyeszerűbben leprogramozni. Silányabb minőséggel fog (talán) jobban futni.
Direkt a konozlok miatt kellett az "újítás".

[ Szerkesztve ]


Alogonomus
(őstag)

A konzolok ára egyáltalán nem a bekerülési költségüktől függ, hanem attól, hogy mennyi pénzt hajlandóak az emberek fizetni értük. Sony és MS is bőven veszíteni fog a konzolokon, de a játékokkal majd visszatermelődik a meghitelezett veszteség.

2022-ig még elég sok idő van. Amint elkezdenek masszív mennyiségben érkezni az RT 1.1 játékok, akkor bőven elég lesz bevezetnie mind a két gyártónak egy altípust a friss architektúrájához, amivel olcsóbb RT kártyákat tud kiadni az addigra már jobban kiforrott technológiához. A közeli jövőben DXR 1.1 játék nem jön, a jelenlegi 1.0 alapján létező pár játék, plusz a Cyberpunk pedig mindenképpen erős - ezért drága - kártyát igényel.


gejala
(őstag)

"A konzolok ára egyáltalán nem a bekerülési költségüktől függ, hanem attól, hogy mennyi pénzt hajlandóak az emberek fizetni értük."
Ez a PC GPU-kra is igaz. Nem sokan fizetnének konzolhoz képest +20% előnyért 2-3x árat PC-n.

Igazából nem tudjuk, hogy melyik játék jön RT-vel, mert nem nagyon beszélnek még semmiről, csak pár videót mutogattak játékokról. De CP2077 mellett is van már 8-10 játék, amiről tudunk és biztosan lesznek még új bejelentések is.


Alogonomus
(őstag)

"AMD $500 konzolokba hoz RT hardvert. Ha akarják, azt a szintet ki tudják adni PC-n is $300-350 kategóriában."

A PS5-re fejlesztők elbeszélése alapján, a konzolok RT képessége messze meghaladja a 2080Ti RT képességét is. RTX 1.0 < RTX 1.1

Azért nem 20% előnyt fognak hozni az ősszel 2-3x áron (1000-1500$) bemutatkozó kártyák. Mondjuk nehéz is összehasonlítani az ősszel érkező konzolokat egy ősszel összerakható DIY számítógéppel. Egy 500$-os konzol viszont biztosan sokkal erősebb lesz, mint egy 500$-ból megépíthető számítógép.

Azért az eléggé nyilvános, hogy milyen RTX játékok érkeznek 1-2 éven belül PC vonalon. [link] RTX azért nem olyan dolog, amit egy indie stúdió csak úgy poénból váratlanul hozzácsap a termékéhez pár hónappal a megjelenés előtt.


gejala
(őstag)

"A PS5-re fejlesztők elbeszélése alapján, a konzolok RT képessége messze meghaladja a 2080Ti RT képességét is. RTX 1.0 < RTX 1.1"
Kb minden gyorsabb lesz RT-ben, mint a 2080 Ti. 3060 tutira, 3050 talán nem. :D

"RTX azért nem olyan dolog, amit egy indie stúdió csak úgy poénból váratlanul hozzácsap a termékéhez pár hónappal a megjelenés előtt."
Bright Memory-t egy ember fejlesztette és a srác hozzácsapta simán RT támogatást megjelenés előtt. ;]
Egyébként RT nem olyan nagy dolog, bármelyik AAA játékba bele lehet tolni pár hónap alatt, ha akarják. Még őszi játékba is belefér, ha most elkezdenek dolgozni rajta. A tavasziakba meg lazán mehet akár mindbe, bőven van még rá idejük.

Amihez ennyire előre bejelentették, az csak marketing miatt van, nem azért, mert olyan sok időbe telik.
Illetve eddig az is lassította a munkát, hogy a Turing túl lassú és ezért próbálkozni kell, hogy mit bír még sebességgel. De Ampere már sokkal megengedőbb lesz. Amihez most trükközni kell kicsit Turingon, azt Ampere erőből kinyomja majd trükk nélkül is.

[ Szerkesztve ]


b.
(félisten)
Blog

mutatnál egy ilyen elbeszélést?

"AMD megvalósításában elvileg sokkal hatékonyabb lesz a raytracing, mert nem nyers erőből akarják majd megoldani. "

Nincs olyan hogy nem nyers erőből . Az RT nek nincs határa. Végtelen erőforrás igényes dolog. Ha elég a hardver az adott feladathoz akkor növelik a részletességet / fényforrásokat / raytracing alapú hangeffekteket, romblható környezetet,és már is kevés újra a hardver. A cél a fotorealisztikus valóság megteremtése és attól még nagyon messze vagyunk...
csalni lehet és kell is különböző erőforrás spóroló megoldásokat kitalálni, de a felszabaduló erőforrást akkor elköltjük újabb fényforrásokra részletesebb textúrákra amik újra növelik az RT erőforrás igényét.

A DXr 1.0 ezt tudja amit jelenleg kapsz...
Nem AMD megoldása a DXr 1.1 hanem a Microsofté amit együtt fejlesztettek AMD vel és hihetetlen ,de Nvidiával, mint ahogy a jelenleg elérhető DXr 1.0 sem az Nvidiáé hanem a Microsofté, jó lenne megértened végre így sokadszorra is leírva neked is.

Azonos API-n azonos játékokon majd letesztelve kell megnézni mit tudnak a jelenlegi és az érkező kártyák és majd össze kell mérni a jelenleg elérhető 5700 XT-t a jelenleg elérhető 2070 kártyával mondjuk RT terén is,( most is össze lehet) meg majd az Amperet az Új Navival. Jelenleg a nullát hasonlítjuk össze a valamivel és ehhez origónak kiválasztjuk az ismeretlen képességű konzolokat és a koordináta rendszer két tengelyén az Nvidia és a konzol fejlesztők eltérő mértékegységet használnak a konzolok/ VGA RT képességének megállapításához .
Ehhez X: Y hasonlítjuk össze a jelenleg még nem megjelent és nem létező játékok futásának sebességét és minőségét az Inlne RT vel megsózva amiről még annyit sem tudunk mint a többiről..... Azt tudjuk jelenleg egy valódi fejlesztő elbeszélése alapján, hogy a PS5 a Minecraft esetén egy 2080 szintjét ( nem a superét ) tudja kb abszolválni raytracing képességekben a DXr 1.0 alatt. Kérdés mit fog tudni a 2080 és a Ps5 / Xbox a DXR 1.1 alatt és ehhez hogy viszonyulnak az érkező VGA hardverek meg még sok kérdés van ebben a témában amire az idő fog csak válaszolni...

[ Szerkesztve ]


b.
(félisten)
Blog

Azért tudnak csodát művelni a Sonynál az exkluzív fejlesztők, csak kérdés mennyire lesz ez általánosan elterjedt akár RT ben, főleg ha ezek nem jönnek át PC re. Náluk van egy két stúdió akik korlátlan idővel és pénzzel rendelkeznek, ők majd biztos kiaknázzák a lehetőségeket a Voxelek/ RT terén.
Xboxnál ugye ott van az, hogy játékaik Kijönnek Windows 10 re ott nem tudnak annyira beleállni a speciális fejlesztésekbe szerintem, bár nem tudom igazából.Helyükben hoznék ki azért pár konzol exkluzív játékot is, Pc megjelenés nélkül. ( ezzel most nagyon magam ellen beszélek :D)

[ Szerkesztve ]


b.
(félisten)
Blog

Igen ,ez igaz .


Abu85
(HÁZIGAZDA)
Blog

Oké, szóval aranyos pletykák azok, amelyek szerint alig csökken majd a sebesség az új Radeonon, de én is leírtam, hogy ez nem ilyen egyszerű. [link]

Igen egy csomó helyről hallani, hogy mindössze 10% körüli az RT bekapcsolása az RDNA2-n, de nagyon fontosak a részletek.
A DXR 1.0 eleve egy rendkívül korlátozott dizájn, nincs támogatva benne egy rakás teljesítménykritikus funkció, például az executeindirect, csak memóriapazarló FP32-es vertex formátum van, meg a shaderek meghívása egy bekötési táblára épül, ahol ide-oda kell másolgatni egy csomó adatot az egyes shaderek között, ami rakás felesleges memóriaműveletet jelen. Meg kell csinálni, mert így működik a rendszer, de amúgy rohadt pazarló az egész, mert sokkal jobb megvalósítása is van ugyanannak a problémának.
A DXR 1.1 egy lényeges evolúciós lépcső, amit a Microsoft a gyártókkal közösen dolgozott ki, nem csak az AMD-vel, hanem mindenkivel. Megoldja a tipikus hiányosságokat, van executeindirect, sokkal szabadabb a vertex formátum megválasztása, illetve kidobja a bekötési táblát, és ezzel együtt azt a sok tök felesleges és alapvetően nagyon lassító adatmenedzselést. Itt már az alapvető működés pusztán sokkal nagyobb teljesítményt ad, mint DXR 1.0 mellett, mert maga az inline raytracing jelentősen kevesebb megkötéssel implementálható. Tehát a sugárkövetés már attól sokkal gyorsabb lesz az új hardvereken, hogy DXR 1.1-re implementálják és nem DXR 1.0-ra. És ez nem csak az RDNA2-re vonatkozik, hanem az Ampere-ra is, annak is a hardvere ehhez igazodik, tehát nagyjából ugyanakkora tempóelőnyt szed fel vele az NVIDIA, mint az AMD.
A jövőben a Microsoft az inline raytracinget fogja fejleszteni, egyszerűen ez a gyorsabb megoldása a problémának, de még a DXR 1.1-nek is vannak hiányosságai. Például nem alkalmaz teljesen konfigurálható BVH bejárás. Ennek az oka, hogy a gyártók eltérő BVH adatstruktúra-formátummal dolgoznak, és ezt nem mindenki nyitja meg. Márpedig ha ezt nem ismerik a fejlesztők, akkor nem tudják a korlátjait, nem tudják, hogy hova kell optimalizálni a nagyobb sebességhez. A sugárkövetés jelenleg PlayStation 5-ön a leggyorsabb, de csak azért, mert ez a konzol lehetőséget ad arra, hogy egy compute shaderben egyedi BVH bejárást írjanak a fejlesztők, így egy csomó olyan teljesítménykritikus algoritmus válik megvalósíthatóvá, amire például még a DXR 1.1 sem ad lehetőséget. De végeredményben ez is pusztán egy szoftver, a hardver megismerésével tudod, hogy mit kell kezdeni vele, így pedig nyilván nem nehéz olyan RT effektet csinálni, ami a DXR 1.0-ban megszokottnál nagyságrendekkel gyorsabban fut, miközben ugyanazt az eredményt adja. Szerintem azok az eredmények, amelyeket hallani az RDNA2-ről, a Radeon Rays 4.0 kiegészítésekből származnak, amelyek ugyanúgy megengedik majd PC-n a compute shaderből szabadon konfigurálható BVH bejárást a DirectX Raytracinggel. Az pedig nem újdonság, hogy a hardverek gyorsak tud lenni, ha optimalizálásban lemész a legalacsonyabb szintekig. De ez a sebesség nem ültethető vissza a natúr DXR 1.1-re, pláne nem a sokkal lassabb DXR 1.0-ra.

Hosszabb távon a Microsoft dolgozhat azon, hogy szabványosítanak egy BVH adatstruktúra-formátumot. Ma ez azért baj, mert eléggé sok alternatíva van. Az Intel sajátot használ, az NVIDIA is, az AMD is, de legalább a konzolok ugyanazt használják, amelyiket az AMD. Tehát részben van már egy közös pont. Innen az lenne a lényeges, hogy ezt a közös pontot kiterjesszék. Ez részben egy licencelési probléma is, mert itt nem csak az Xbox Series X-ről van szó, hanem a PlayStation 5-ről is, és bizonyos IP-k, amelyek vannak az RDNA2-ben azok a Sony fejlesztései, de az AMD, a Microsoft és a Sony keresztlicencben dolgozik (de részben emiatt zártak a Radeon Rays 4.0 egyes részei, mert nem 100%-ban az AMD megoldása, hanem egy Microsoft-Sony-AMD kooperáció). Na most ezt ki kellene terjeszteni az Intelre és az NVIDIA-ra is, meg még azokra a gyártókra, akik jönnének, tehát meg tudom érteni, hogy jelenleg miért nincs szabadon konfigurálható BVH bejárás a DXR 1.1-ben, de előbb-utóbb itt is megegyeznek majd, mert úgyis erre kell menni az egyes algoritmusok megvalósíthatósága érdekében. Viszont ehhez ugye kell egy licencszerződés, ha az megvan, akkor el kell kezdeni tervezni az új hardvereket, immáron az érkező, egységesített BVH adatstruktúra-formátumra, stb. Szóval ez időben sokáig fog tartani.

[ Szerkesztve ]


X2N
(senior tag)

Inkább azon kellene dolgoznia a fejlesztőknek hogy többkártyás rendszereket lehessen hatékonyan használni sugárkövetésre. Ez bevált dolog azoknak akik vga-val renderelnek.
Most a PCie 4.0-val már megvan a sávszél 4db 2080Ti-nak is. Ezek a mostani kártyák kevesek erre, majd ha 1 kártya 50TFlops teljesítményt tud, akkor már lehet realtime sugárkövetésre alkalmas kártyáról beszélni. Aki az új konzoloktól várja a csodát, az csalódni fog. Még ha agyon is optimalizálák itt nincsenek csodák, a brute force megoldás adja a legjobb képet.

[ Szerkesztve ]


Abu85
(HÁZIGAZDA)
Blog

Offline ez bevált dolog, de a real-time nem ennyire egyszerű. Utóbbinál azért nagyobb hátrány az adatmásolás per sugár, mint annak az előnye, hogy külön dedikálsz a sugárkövetésre egy GPU-t.

Ami működőképes lehet az a teljes feldolgozás felosztása, például AFR-rel, vagy SFR-rel, de leginkább valami scissor modellel. Vagy írnak egy olyan motort, ahol az árnyalás függetlenített a leképezéstől, így pedig az árnyalási munkák leoszthatók egy csomó GPU-ra, és lenne egy szem fő GPU, ami csak a leképezést csinálja.

A DXR 1.0, a DXR 1.1, illetve a Sony megoldása is brute force. A különbség az, hogy mennyire pazarlóan vagy hatékonyan bánik a rendelkezésre álló hardverrel. De az eredményük ugyanaz. Itt gondolj arra, hogy a megjelenített kép tekintetében a DirectX 11 is ugyanazt csinálta, de eközben a DirectX 12 többszálú optimalizálásával egy csomó rajzolási parancsra levetítve sokkal gyorsabb. Mindkettő API brute force, csak az egyik pazarló, míg a másik hatékony. A DXR 1.0 és a DXR 1.1 esetében nem mindegy, hogy például a DXR 1.1-gyel már amikor találatkor, vagy találat nélkül a függvény visszatér, akkor helyből ott a kontextus struktúrája a shaderben. Nem kell azt bekötni, hogy egyáltalán folytatni lehessen a számítást a hit vagy miss shaderrel. Egy csomó adatmozgást megszüntetsz ezzel a lapkán belül, miközben a számítás része ugyanaz marad. Ha ez nem számítana, nem nyomtak volna egy ekkora resetet az inline raytracinggel.

[ Szerkesztve ]


Jack@l
(veterán)

Realtime renderelnek tobb kartyaval mar evek ota... Offline meg realtime k0yt csak a renderelesi ido es minoseg az elteres.

[ Szerkesztve ]

üzenetek