AMD GPU-k jövője - amit tudni vélünk - Videokártyák fórum

üzenetek

hozzászólások


b.
(félisten)
Blog

" sokkal sokkal jobbak "

jah ez [link] alapján lassan azt nyújtják amit az Nvidia már egy ideje.

[ Szerkesztve ]


Abu85
(HÁZIGAZDA)
Blog

Akármilyen API-val működik. Ugyanaz, mint a Chill, csak mást kezd az információkkal.


Tyrel
(őstag)

Mondjuk szerintem pont baj hogy ugyan az mint a Chill, olyan értelemben hogy még a triggere is ugyan az... sőt még kevesebb, mert a Chill. a billentyűzet inputra is emeli az fps-t, a Radeon Boost viszont (hardware unboxed teszt szerint) csak az egérre reagál.
Pl. nyomom a W-t, megyek előre, az eléggé mozgás, de a boostot nem triggereli.

Szerintem alapból nem ezt a logikát kellett volna követniük, hanem simán az fps-nek kellene triggerelnie. Pl. beállíthatod hogy minimum 40 fps-t akarsz, ha látja hogy alá mentél akkor elkezdi csökkenteni a resolution scale-t amíg vissza nem érsz 40 fölé.
Így azokban a jelenetekben segítene amiken bottleneckel a GPU, tehát ahol tényleg szükség van rá. Felesleges meg nem rontaná a képminőségedet amikor az fps-ed egyébként is magas, annak mi értelme van?? :F

Mi volt abban a logika mikor ezt csinálták, hogy van mondjuk 80fps-em, mozdítok egyet az egéren és lesz belőle 90fps. Annak volna értelme, hogy ha beesel valami nagyon komplex jelenetbe amitől padlót fog az fps, azt ellensúlyozza ezzel dinamikusan.
Konkrétan a játékokban lévő dinamikus resolution scale implementáció, pl. a Gears 5-é pontosan ezt is csinálja, nem véletlen, ennek van értelme.

Ha AMD-nél gondolkodtak volna és így oldják meg akkor most nem az lenne a visszhang hogy értelmetlen meg hogy milyen rücskös lesz tőle Overwatch-ban a fegyvered, hanem az hogy Radeonokon milyen faszán lehet játszani nagyon gépigényes játékokkal is, mert némi minőségromlás árán megoldják neked hogy folyamatos maradjon a kép, dinamikusan.
Az lett volna a nagy dobás. Ez ebben a formában egy semmi. Elhiszem hogy a tech maga jó de nem a Chill triggerére kéne kötni, az egy marhaság.

[ Szerkesztve ]


Z_A_P
(addikt)

Ez a chart nagyon csunyan nez azert ki:
[link]


Tyrel
(őstag)

Chill-el is így néz ki, csak ott van értelme itt meg nincs. :U


b.
(félisten)
Blog

na ezért lett ilyen bonyolult a DLSS is mert csodák nincsenek sajnos. Szerintem ez nem tud működni hatékonyan függetlenül attól, hogy DLSS vagy Radeon boost vagy Direct ML.
Mindegyiknek meg lesz a maga hátulütője.

[ Szerkesztve ]


Tyrel
(őstag)

A DLSS fixen csökkenti a resolution scale-t. Maga az a képesség ugyan úgy meg van a Boost-ban is (és ugyan úgy játékfüggő), igazán nincs lényegi különbség ezen a téren.. Ill. technikailag lehet hogy van, de az eredmény ugyan az...
...csak AMD dinamikusan próbálja változtatni ennek a mértékét, amivel egyébként szintén nincs baj, sőt jó ötlet. Azzal van baj, hogy mi szerint dönti el mit csináljon, értelmetlen.

Biztos vagyok benne hogy az fps-re is lehetne kötni, Radeon Software elég részletesen méri ill. diagnosztizálja saját magát és a játékok futását, nem hinném, hogy az ebből származó fps infókat ne használhatnák fel... egyszerűen csak hülyék. :(

Mondom, Gears 5-ben ott van a tökéletes mintapélda, etalon hogy mit kéne ennek csinálnia... kéne... de AMD szellemi teljesítményét úgy látszik meghaladja...

[ Szerkesztve ]


b.
(félisten)
Blog

Igen csak az Nvidia DLSS a bonyolult neuron hálós megoldást azért teszi hogy a fix felbontáson fix frametime és nagyjából azonos százalékú teljesítmény növekedés legyen mindenhol,míg a kimeneti kép lehetőleg ne legyen elmaradva lényegesen a natívtól minőségben, Függetlenül a képernyőn történő eseményektől, mert az AI elméletileg felismeri az azonos grafikai elemeket és megoldásokat és ezt öntanuló módon használja a játék folyamán automatikusan ezzel egy állandó fix minőséget és FPS növekedést er45edményez amit elhasználhatsz az RT re.
Ezt mint láttuk nem tudták maradéktalanul megoldani, de nincsenek brutális droppolások és megakadások, [link] míg itt a radeonos tesztnél volt olyan az egyik tesztelőnél, hogy konkrétan tizedmásodpercekre megakadt a kép fordulás közben.persze lehet még fake vagy béta amit használt még.
Konzolon segítség a fix FPS és a nagyobb késleltetés és ugyan ez igaz a Stadiara is,de PC-n ez nagy kihívás lehet mert rögtönzött és közvetlen a kapcsolat.
persze azért működhet még, csak idő kell neki.

[ Szerkesztve ]


Tyrel
(őstag)

Nem tudom milyen tesztről beszélsz, én eddig csak hardware unboxed-ét láttam, ott nem volt ilyen "tizedmásodpercekre megakadt" téma... Ha van is az csak kezdeti bug, most jelent meg, press driverrel nyomták, stb.

A DLSS mit csinál AI-val? Resolution Scale csökkentéshez semmilyen AI nem kell, az utólagos korrigálásainál amikkel megpróbálja ellensúlyozni a minőségromlást meg a saját Freestyle Sharpening filterük is jobb, amihez szintén nem kellett AI... Szerintem ez az egész magic amit kb. beidéztél most az nVidia marketinganyagából a DLSS-ről meg az AI-járól egy nagy bullshit volt Mr. Bőrdzsekitől, hogy eladják a feature-t.
Simán csak csökkenti a resolution scale-t mindkét megoldás (erre némelyik játék maga is képes, mindenféle AI meg célhardver nélkül), nincs abban semmi nagy varázslat.

nVidia megoldása több játékkal működik, valószínűleg jobban is működik mivel vagy egy évük (? franc emlékszik mióta van?) volt már csiszolgatni... AMD-é meg okosabb lehetne mert nem fix Scale-el dolgozik, de hibás logika szerint skálázódik, így meg sztem nem fogja használni senki sem. Ezt átírni valószínűleg nem nagy feladat, mindenük meg van hozzá, csak kérdés hogy meg lesz-e a felismerés is...

[ Szerkesztve ]


Abu85
(HÁZIGAZDA)
Blog

Mindenféle inputra reagál a Boost, csak az AMD elmondta, hogy figyelembe veszik a képkockasebességet is, és ha a rendszer úgy ítéli meg, hogy nem kell nagyon emelni a tempón, akkor inkább nem állítja dinamikusan a felbontást. A press meghajtóban direkt ezért aktív a developer mód, hogy ha valaki tesztelni akarná a minőségcsökkenést, akkor elég csak a shiftet nyomogatnia, és arra azonnal reagál a Radeon Boost, mert az algoritmus alapján nincs kőbe vésve, hogy minden gombnyomásra, vagy bemozdulásra csökkenni fog a felbontás, ahhoz teljesülnie kell egyéb feltételeknek is, és ebből a szempontból eléggé bonyolult a rendszer, nincs egy fix mozdulatsor, ami alapján ez biztosan kiváltható. A végleges meghajtóban ez a trükk a shifttel nem lesz benne.

Régi Boost működést az AMD azért mellőzi, mert olyan megoldást akartak, ahol erős odafigyelés nélkül nagyon nehezen legyen észrevehető a minőségcsökkenés. Egy képkockasebességhez kötött módszerrel a jelenethez lenne kötve a minőség, vagyis simán tudnál úgy nézelődni, hogy nem natív részletességet kapsz. Ezzel a módszerrel ezt nem tudod igazán megtenni, mert ahhoz, hogy nézelődj, mellőznöd kell a gyors mozgásokat, és ezek nélkül a Boost nem igazán működik extrém minőségcsökkentéssel. Mozgás mellett pedig egy rakás olyan tényező van, ami elmossa a Boost minőségcsökkentését, a legtöbb játék már eleve alkalmaz valamilyen motion blurt, de pusztán a gyors mozgás ténye is elég ahhoz, hogy maga a minőségvesztés kevésbé legyen látható. Emiatt mondják azt a reviewekben, hogy ha csak játszanak, és nem keresik a felbontáscsökkenés hatását, akkor nem igazán veszik ezt észre, és pont ez volt a koncepció, hogy elérjék ezt a hatást. Szimplán sebességszintekhez kötve nem lehetett volna megcsinálni.
A fentiek mellett a dinamikus felbontásskálázást rendkívül egyszerű beépíteni egy játékba. Az API-k minden tartalmaznak ahhoz, hogy a fejlesztő írjon a motorba egy ilyen rendszert. Egy input alapján működő felbontásskálázást viszont nem lehet csinálni, mert az API-knak az az alapvető követelése megakadályozza, hogy legyen parancslista. Lényegében illegális dolgot csinálna a játék, ha ezt valahogy elkezdené kontrollálni, mert ezek menedzselése az OS és a driver feladata. Alapvetően nem is tudnák megcsinálni a fejlesztők anélkül, hogy az OS-en belül bizonyos fájlokat felül nem írnának. Tulajdonképpen az AMD is ezt csinálja a Chillel, megkerülik a Microsoft korlátjait. Ilyen szempontból ugyanaz a helyzet a Boosttal is, mint a Chillel. Nem tudja senki sem lemásolni, nem mellesleg a szabadalmak is az AMD-nél vannak. Ez gyakorlatilag egy egyedi funkció ismét a driverben, amit se fejlesztő, se konkurens nem tud felkínálni. Ez innentől egy marketinges szempont is, mert csináltak egy olyat, amit előttük még senki, és a szabadalmakat figyelembe véve, valószínűleg utánuk sem. Ugye a Chillt se másolják a konkurensek. Túl bonyolult, túl sokáig tartana megcsinálni, és még fizetni is kellene az AMD-nek érte.

(#44687) Tyrel: Lehet a képkockasebességhez kötni. Igazából az nem is olyan nehéz. Kb. olyasmi meló, mint az Anti-Lag. Ugye ott is az alap a Chill, csak nem a Chill működéséért felelős bonyolult algoritmus fut rajta, hanem egy jóval egyszerűbb, és így nyilván sokkal kevesebb idő volt tesztelni is, mert nem dimanikus a helyzetekre való reakciója. Ha mondjuk az fps-hez kötnék ezt, akkor ott is az lenne, hogy adott az alap a Boostban, csak a döntésért felelős algoritmus változik. Elképzelhető, hogy ha megcsinálják a Boostot blacklistesre, tehát úgy, hogy működjön mindennel, mint a Chill, akkor raknak be egy alternatív algoritmust. Ez tényleg nem egy nagy meló. Viszont ennek a minősége biztos nem lenne olyan jó, mint a mostanié. De kivitelezhető és viszonylag egyszerűen megvalósítható nekik, csak kérdés, hogy akarnak-e vele foglalkozni. Első körben biztos nem, mert a fókuszt biztosan a Boost befejezése jelenti. Utána lehet, ha kész a Boost, akkor onnan nem lenne több három hónapnál egy módosított algoritmussal működő rendszer.

(#44689) Tyrel: Az AI az jó dolgot csinálna a DLSS-nél, ha az NV rakna bele pénzt. Alapvetően a DLSS-nek nem a technológiai háttere a rossz, hanem az, hogy az NVIDIA egyszerűen nem ad ingyen gépidőt a fejlesztőknek. Így meg azért rohadt nehéz ám jó eredményt elérni, hogy kell egy rakás számítási kapacitás a tréninghez, de közben egy órát is marha drágán mér az NVIDIA. A Microsoftnak van egy ugyanilyen megoldása DirectML-re. Csontra ugyanezt csinálja, csak a különbség, hogy a neuronháló tréningelését ingyen mérik a DirectML-t támogatók között. És elég jók is az eredmények, ha nem azt kell nézni, hogy van x pénz, és az elég y órára, ha pedig nem jó a neuronháló, akkor ez van, ennyire volt zseton. Az AI az nem ilyen, ott nem lehet előre megmondani, hogy mennyi idő múlva készül relatíve jó eredményt biztosító neuronháló, emiatt lenne kritikus ezeknél a megoldásoknál, hogy legyen a fejlesztőknek ingyen elérhető számítási kapacitás, mert egy helyi munkaállomáson ez a munkafolyamat nagyon sokáig tartana, úgy kb. örökké.
Itt valószínű egyébként, hogy az NV erre üzletet akart építeni, tehát amíg a Microsoftnak megéri ingyen Azure kapacitást adni csak azért, mert a fejlesztő DirectML kódot ír (ez nincs Linuxon->több Windowst adnak el->profit), addig az NV-nek nem feltétlenül éri meg ez, mert drágábbra jön ki gépidőt adni, mint lehúzni a WC-n a technológiát. Ettől függetlenül a DLSS koncepciója jó, csak a piszkos anyagiak elrontják a gyakorlatot. Ugyanakkor, ha bevállalnának egy rakás anyagi veszteséget ezen, akkor bőven jobb lehetne a minőség, mint amit az alternatívák adnak. Jensennek azonban kell a zsé új bőrkabátra. :)

[ Szerkesztve ]


b.
(félisten)
Blog

erről [link] a Tomb Raidert várd meg.Szerintem kifejezetten ocsmány.

[ Szerkesztve ]


Abu85
(HÁZIGAZDA)
Blog

A probléma eleve az, hogy a játék 13-14 fps-sel fut átlag az adott gépen. A Boost nem tesz csodát. Nem éri meg azt várni tőle, hogy 13-14 fps-ből 60-70-et csinál.

(#44693) b. : Szerk.: Oké, bocsi. :))

[ Szerkesztve ]


b.
(félisten)
Blog

Rosszat linkeltem elsőre.

" Emiatt mondják azt a reviewekben, hogy ha csak játszanak, és nem keresik a felbontáscsökkenés hatását, akkor nem igazán veszik ezt észre, és pont ez volt a koncepció, hogy elérjék ezt a hatást. Szimplán sebességszintekhez kötve nem lehetett volna megcsinálni."

DLSS nél szerinted nem így van ? nézd már meg a revieweket, ocsmány amit művel a Boost.
DLSS nél ugye volt olyan reviewed itt az oldalon, amivel egy állóképre zoomoltál 20 x nagyítással és megállapítottátok / tad milyen szar,.
Most akkor vessük össze a Boostot a DLSS sel és ne a Freestyle sharpeninggel mint ahogy a sok agyhalott csinálta ugye....Nézzük az eredményt a kapott FPS növekedést és a frametime eredményeket. Pontosan az van itt is, mint a Freesycnél az alja monitornál, hogy ez a könnyebb út majd kap egy pár játék támogatást a végeredmény meg mindegy.....

[ Szerkesztve ]


mormota79
(tag)

jó ez 2 fps-el több de legalább jó ronda lesz :D


Cifu
(nagyúr)
Blog

Ha az AMD nem tömi be az SKU-j közötti lyukakat, majd a custom gyártók megoldják... :DDD


Petykemano
(veterán)

[Amazon] XFX RX 5500 XT Thicc II Pro 8GB GDDR6 3xDP HDMI Graphics Card RX-55XT8DFD6 https://t.co/Ga7SdcdxCT
>229.99USD.

Az előzetes tesztek alapján nem éri el a $159/169-os 1650S, illetve rx 580 teljesítményét. Persze az egy OEM cucc volt. Bika hűtéssel mondjuk rá lehet pakolni 15-20%-ot. Akkor átlépheti az 1660-t és az rx 590-et is. Ez a $220-230 magasság, de ott van az 1660S, ami az rx 580tól 30%-ra van, és szintén $230-240, tehát árban nincs olyan messze.

Vajon mi alapján bátorkodnak ezeket az rx 5500 xt-ket. $230-260 magasságba árazni? Hát itt az 1660S-t kéne verni, ami 30%-ra van az OEM rx 5500-tól látott teljesítménytől.

Az árazás annál is inkább fura, hogy referencia rx 5700 időnként megjelenik itt-ott $299-ért. Ez kb 55-60%-ra van az rx 580-tól.

Összességében úgy tűnik, hogy ha az rx 5500xt hozza a 30%-ot az rx 580-hoz képest, akkor is túlárazott, nem csak a fogyasztói igények, hanem a konkurenciához képest is, meg az rx 5700 lefelé lógó lábához képest is. És az rx 580 + 30 és +60% közé kéne még beférnie az rx 5600/xt párosnak. Nem csak teljestíményben (+40%, +50%),.hanem árban is. (Valahová $240 és $300 közé)

Itt már nem.nagyon van értelme lastminute árazni, nincs jebait. Így azért elég meredek.


Pécsi gyerek
(addikt)
Blog

Nekem ez kell. Ha már az ára rossz lesz, legalább legyen csúnya is. ;] :(
Kíváncsi vagyok hogy ezekután tényleg ennyiért akarják eladni. :Y :C

[ Szerkesztve ]

üzenetek