Hirdetés

üzenetek

hozzászólások


Duck663
(senior tag)

Ha valaminek a megjelenése előtt ilyen történik, akkor a szándékosság mindig felmerül.

Nem tudom a Polaris 10 és 20 között történt-e bármiféle ilyen jellegű fejlesztés. Amit találtam tranzisztorszámra vonatkozó információkat, azok alapján a két GPU megegyező, de persze ez ettől még nem biztos, hogy így is van. Az RV770 és RV790 között is mindössze 3 millió tranzisztor volt a különbség.

A vsync driverből kényszerítve szintén működik (amiken próbáltam). Enhanced sync is működik, csak ne akard chillel együtt használni, mert akkor képtöréseket okoz.

A videó úgy jön ide, hogy igaz, hogy a prezentáció PS5-ön történt, de a technológia PC-n is elérhető lesz! Csupán ennyi a közöd, ez a fejlődés iránya, ahhoz hogy ezt elérjük egy PC-n vagy konzolon, nem lehet black boxokkal bohóckodni.

A Physx problémáját pont a rettenetesen rosszul (szándékosan rosszul) megírt CPU-s rész okozza. Volt erről korábban egy cikk, ahol ezt elemezték, talán egy német oldalon, már nem emlékszem. Egyébként elég megnézni még az Ageia szoftverét és a későbbi nv szoftverét, töredékére esett a tempó a CPU fizika használatával. Kicsit kutakodtam, Frontline: Fuel of War, egy nem túl sikeres Unreales játék amelyhez még az nv előtti időkből is elérhető volt (talán még fellelhető) meghajtó, érdemes megnézni azzal és az nv féle "optimalizációval" kb negyedelődik a tempó, plusz akadás mindenfelé! Ennek annyira nem kellene tapsikolni, hú de hogy teljesít, de vajon miért is?

Nem arról van szó, hogy kizárólag Radeonokon történik a fejlesztés, de az elsődleges fejlesztői platform Radenokokra épül. Ennek nem annyira most, hanem majd a UE5-ös játékoknál lesz komoly eredménye. A fejlesztések nem két nap alatt történnek, évek munkája.

[ Szerkesztve ]


kenwood
(addikt)
Blog

RX 460 gond nelkul viszi a 4k 60 hz-et.
Ha mar a 1440 is droppolt, akkor ott valami mas volt a hiba,nem az,hogy a Polaris alkalmatlan ra.


zolomon17
(aktív tag)

Nálam az analógia ott van, amikor az adott hívő azt mondja, hogy "próbáld ki, többet nem akarsz majd a konkurenciától semmit!" A Linux mögött valóban nem áll kb. egy gramm marketing se, de aki fanatikus híve az reklám nélkül is ugyan úgy fogja tolni ezt a mantrát, mint az OSX vagy a Win vérpistike.

Verdikt: ne legyen senki vérpistike, mert marhaság :)

[ Szerkesztve ]


zolomon17
(aktív tag)

ASUS ROG Strix laptopom: Intel (i7 7700HQ) + nVidia (GTX1070)
Asztali: AMD (FX8350 helyett most költözött be egy Ryzen 5 3600X) + nVidia (RTX2070 Super, előtte GTX1060, előtte R9 290, előtte HD7850, még előtte 8800GT)

Mikor mire volt pénz és mi volt elég az adott játékokhoz :K


DraXoN
(addikt)
Blog

én v-sync helyett a "chill" funkciót használom képkocka rögzítésre, teljesen jó (sose volt bajom vele).. mondjuk v-sync-el se volt eddig bajom ha azt is próbáltam RX470-en (de mint írtam, nem utóbbit használom többnyire, így észre se vehetem ha baj van vele).

A video encoder valóban kicsit fejletlen lett polarisban már amikor megjelent, a vega meg egy az egyben ezt örökölte meg minden fejlesztés nélkül, csak a navik kaptak új verziót (és a vega APU-k).. hiába, egy erősen forráshiányos időszakban született a termék.

[ Szerkesztve ]


huskydog17
(addikt)
Blog

Chill-t egyszer próbáltam meg, az eredmény borzalmasan rossz volt, elméletben lehet, hogy jó cucc, de Vsync helyettesítésére alkalmatlan. Hiába állítottam be 60 fps-t, olyan ronda framedroppok voltak, hogy kapcsoltam is ki azonnal.

"A videó úgy jön ide, hogy igaz, hogy a prezentáció PS5-ön történt, de a technológia PC-n is elérhető lesz! Csupán ennyi a közöd, ez a fejlődés iránya, ahhoz hogy ezt elérjük egy PC-n vagy konzolon, nem lehet black boxokkal bohóckodni."

Meg se merem tippelni hányszor láttam ilyen és ehhez hasonló jóslatokat. Én csak azt hiszem el ami már megtörtént, a black box kifejezés pedig nem tudom honnan ered, gondolom talán valamelyik AMD által szponzorált dev említette egyszer valamikor valahol. A PS5 az összes többi konzollal egyetemben teljesen irreleváns téma a cikk témáját figyelembe véve.

"Kicsit kutakodtam, Frontline: Fuel of War, egy nem túl sikeres Unreales játék amelyhez még az nv előtti időkből is elérhető volt (talán még fellelhető) meghajtó, érdemes megnézni azzal és az nv féle "optimalizációval" kb negyedelődik a tempó, plusz akadás mindenfelé! Ennek annyira nem kellene tapsikolni, hú de hogy teljesít, de vajon miért is?"

Belinkelnéd légyszi a forrást? Érdekelnének a pontos teljesítmény adatok. A játékra rákeresve én csak annyit találtam, hogy néhány usernél nem akar alapból elindulni a játék, nekik csak annyi a dolguk, hogy feltelepítik a NVIDIA PhysX Legacy System Software és műxik.
Amúgy vicces, hogy egy 2008-as címmel jössz, ami 2.x-es PhysX-et használ, azóta az SDK óriásit fejlődött és gyorsult. Tisztán CPU alapon a 3.3-ről 3.4-re történő átállás az Exor-nak 2-3× gyorsulást hozott teljesítményben, a 3.3 pedig már alapból nagyságrendekkel gyorsabb, mint a 2.x verziók. Vess egy pillantást az X-Morph játékra, itt a fizika nem csak esztétikai szempontból veszettül jól néz ki, de közvetlen kihatással van a játékmenetre, továbbá teljesen CPU alapon megy úgy, hogy egy régebbi 4 magoson is gond nélkül megy, vagyis nagyon baráti gépigénye van. Nem sok játékot ismerek, még a maiak közül se, ahol ilyen fizika van, ráadásul ami kihat a játékmenetre is. A videóban CPU PhysX látható, szerintem ez pont, hogy példaértékű alkotás fizikai szimuláció szempontjából.
Szóval lehet nézni szélsőségesen negatív példát, de lehet a másik oldalról is, érdemes mindkét végletet figyelembe venni.

Bár eléggé elkanyarodtunk a cikk témájától, nem is értem hogy jött be a PhysX a képbe, de ha már szóba hoztad, volt néhány játék, ahol RX470 alatt összeomlott a sebesség, amikor a GPU alapú fizikát bekapcsoltam, majd egyszer megnézem hogy megy 1060-on, ha már CUDA-ra lett írva.

"A vsync driverből kényszerítve szintén működik (amiken próbáltam). Enhanced sync is működik, csak ne akard chillel együtt használni, mert akkor képtöréseket okoz."

Meg tudnád mondani, hogy pontosan mely címekben próbáltad? Bár most már úgysem tudom letesztelni, mert az RX470 már nincs nálam 3 hónapja, de hátha augusztusban én is néztem azokat, ki tudja.

#25 DraXoN : Nálam a Chill borzalmasan rosszul működött, amikor belőttem 60 fps-re, össze vissza akadt a játék. Kényszerített Vsync-el nem volt ilyen gond.

[ Szerkesztve ]


DraXoN
(addikt)
Blog

Anno mikor megjelent ez a chill mód voltak anomáliák, de egy 2-3 éve biztosan nincs bajom vele.
ráadásul nem "fixálva" 60-ra állítom hanem 40-60 tartományba.. 60Hz free sync nélküli a monitorom jelenleg (egy pár éve, úgy január közepéig, aztán átveszem egy ismerősöm 3840x1080 144Hz monitorát ... megölöm vele majd az RX470-et, kiszívja majd a "lelkét" :DDD ).


GhostRider93
(csendes tag)

Chill-t én is egyszer próbáltam ki (RX5700XT) és igázából nem vettem észre különösebb változást azon kívül hogy 50W-al kevesebbet evett. Anti-lag mellett warzone-ban 130-150fps között mozgott(144-es monitorhoz állítottam be a grafikát 1440p-n). Kikapcsolt V-sinc mellett , aktív anti-lag-al hozza a leszebb játékélményt és nincs free-sync (sajnos) .

A cikkhez szólva megnéztem egy 8K60 videót youtube-on(Chrome) és VLC-ben (Peru 8K HDR-a videó neve) de nem láttam hogy eldobná a fremeket és közben elvolt a kártya 15W pluszminusz 2W-ból. 20.10.1-es driver de régebben sem figyeltem ilyenre. Valamikor régen volt egy 8800GT-m mikor megjelent de utána mikor tönkrement sokáig nem voltam olyan helyzetben hogy összerakhassak egy gépet. Tavaj sikerült de kiesett egy elég hosszú időszak amikor csak az interneten követtem a változásokat de tapasztalni nem tapasztaltam mivel egy 320M-es i3-al kellett beérnem amit késöbb egy kőkemény 540M-re cseréletm ki. :B mai napig megy :D 10+ éves már de karbantartom a lapost :)

[ Szerkesztve ]


huskydog17
(addikt)
Blog

A 40-60 tartományt én azért nem akartam használni, mert én fix 60 fps-t szeretnék, nem akarom, hogy a Chill 40 fps-re lefékezze a sebességet, amikor a kártya 60-at is tudna. A fix 60 fps-hez a Chill nálam alkalmatlan volt.

#28 GhostRider93: "A cikkhez szólva megnéztem egy 8K60 videót youtube-on(Chrome) és VLC-ben (Peru 8K HDR-a videó neve) de nem láttam hogy eldobná a fremeket és közben elvolt a kártya 15W pluszminusz 2W-ból."

Valószínűleg akkor a CPU-d is keményen számolt a GPU mellett, ugyanis a Navi nem tud VP9-et gyorsítani 8K felbontáson.
Az egyetlen GPU-család, ami képes 8K60fps videót dekódolni, az az Ampere, ami AV1 alatt képes erre, a többi kodek esetén 30 fps-t tud dekódolni 8K felbontáson. Navi 4K felbontásig támogatja a VP9-et és a HEVC-et, míg az AVC-t képes 8K-ban gyorsítani max 30 fps-ig.
Amúgy attól, hogy nem láttad, könnyen lehet, hogy dobálta a frameket, ezt leellenőrizheted a Statisztikák menüpontban. Amúgy az általad említett videóban nem is érhető el 8K felbontás, 4K a legmagasabb, az pedig a Navi-nak nem probléma, legalábbis feltételezem, hogy erre a videóra gondoltál, itt 2160p60 a maximum, azaz 4K.
Ez például egy valódi 8K videó, erre rá is néztem. Annak ellenére, hogy a GTX1060 ezt nem tudja gyorsítani (nem teljesen), a videóban nem volt eldobott frame, mivel a CPU is alaposan dolgozott, mert a GPU dekódere nem bírta egyedül. Bár a 0 eldobott frame ellenére egyértelműen látszott, hogy nem folyamatos a kameramozgás, de az is csoda egy Pascal VGA-tól, hogy nézhetően viszi a 8K videókat. :) Sajnos ebből a szempontból a YT Statisztikák menüpont nem teljesen megbízható.

[ Szerkesztve ]


qad
(senior tag)

A leírás 60-70%-ban lefedi a nálam előfordult rossz élményeket és pár év szívást az Amd kártyákkal. Az lett az eredménye hogy 5-6 év szívás után a 2900 XT és a Hd 4830 után tértem vissza az nv-re és ezek után esélyt sem adok többet az amd videokártyáknak. Nv-vel egyszer volt gondom kevés ideig, amikor az nv driver és a google chrome nem bírta egymást és párszor fekete kép lett a végeredmény. Bár ezt a hibát is ketten hozták össze és azóta 2 különböző böngészőt használok, ezt az egy hibát leszámítva, más gondom nem volt az nv-vel. Üdv a klubban.


Geri Bátyó
(őstag)
Blog

A vicc kedvéért én is ránéztem a 4K videókra. A VP9 időnként nálam is akad és 50% körüli a prociterhelés, ami nem is meglepő, mert hogy nálam nincs GPU gyorsítás, az tuti. A VP8, a H264 és a H265 viszont simán megy 15-20% körüli prociterhelés mellett. A vicc az egészben, hogy jelenleg kényszermegoldásként egy HD6450 van a gépben.


bossbob
(csendes tag)
Blog

Egyetértek azokkal a korábbi hozzászólókkal, akik nem márkahűségre, hanem tudatos, büzsdé és igény szerinti vásárlási döntést javasolnak.

Én főként AMD/ATI kártyákkal játszottam az elmúlt 20 évben. Legutolsó nVidia kártyám egy 8600GTS volt még 2007-2010 között ami meg sajnos ledobta magáról a GPU-t, ugyanis az a szériánál rossz forrasztási anyagokat használtak, ha jól emlékszem...

Jelenleg egyébként van nVidia és AMD kártyám is mivel laptopban egy MX150 ketyeg asztaliban pedig egy Sapphire RX480-as. Mindkettő remekül teszi a dolgát, windows és linux alatt is.

Érdekesek a problámék amiket leírtál, vsync-el nekem sosem volt bajom. Szerintem az utóbbi 2-3 éveben a Radeon Sofware ugyan csak sokat javult, igaz volt honnan. Driverben az nVidia mindig jobb volt.

Nálam a Radeon Chill bevevállt vsync helyettesítésére. Mivel a monitorom 1440p-ben 45 és 75 Herz között képes freesyncre, így erre lőttem be azt. Szerencsére nekem nincs vele problémám.

OpenGL valóban maradni fog még jó ideig. Ha jól tudom a fejlesztők nem szeretik mert jól kell ismerni, ha jól futó játékot akar írni rá az meber. Egyébként a DOOM-ot és az új Wolfenstein-t miért OpenGL-en játszottad? :Y Ezek a játékok híresek arról hogy nagyon jó a Vulkan implementációjuk. Az RX480-asomon Vulkánnal fantasztikusan futnak windos-on és linuxon is Vulkan API-val, halál stabil 60 fps 1440p-n, pedig nincs egy csúcs gépem: i5-4690+Rx480.

[ Szerkesztve ]


GhostRider93
(csendes tag)

Valóban 4k ezt elnéztem. A proci terhelést nem figyeltem de megnézem majd újból plusz a statisztikák menüben is figyelek. 6 mag dolgozik 12 szálon 4ghz-en így gondolom ha a CPU számolta nem okozott neki gondot (R5 2600) és a videó folyamatos volt (szemre) döccenés nélkül ment végig. A "filmezős" gépen (R3 1200 4ghz, +rx570) VLC ben szépen megy a 4k HEVC film de ott gondolom csak a CPU számol. Azt is megnézem majd milyen terhelés alatt vannak a komponensek. ( A félreértések végett azt a gépet csak azért raktam össze hogy megnézzem van e még kedvem a pc géminghez és csak fél évvel később raktam össze a nagyot mikor rájöttem még nem ment el a kedvem a nagy kihagyás után és rászántam magam egy nagyobb gép építésére ami már jóval drágább)


zooliii
(tag)

Sajnálom, hogy ennyire megjártad a Radeonokkal. :(
Én amúgy pont az ellenkezőjét tapasztalom, kb. egy éve váltottam 1050Ti-ról RX 580-ra, hát ég és föld a különbség utóbbi javára. Egyedül a zajszint, meg nyilván a fogyasztás az, ami romlott, de ezzel még együtt tudok élni.

[ Szerkesztve ]


huskydog17
(addikt)
Blog

"Egyébként a DOOM-ot és az új Wolfenstein-t miért OpenGL-en játszottad?"

Vulkan-nal toltam a Doom 4-et, a Wolfenstein New Colossus-ban pedig kizárólag Vulkan van.
Amúgy igen, RX470 a Doom 4-et Ultra-n viszi Vulkan API alatt.

#33 GhostRider93: "A "filmezős" gépen (R3 1200 4ghz, +rx570) VLC ben szépen megy a 4k HEVC film de ott gondolom csak a CPU számol."

Nem tudom a VLC alapértelmezetten (gyári beállításokkal) bekapcsolja-e a DXVA-t, bár gondolom igen, mert értelmetlen és logikátlan lenne nem azt használni. Szóval az RX570 gond nélkül tudja gyorsítani a 4K HEVC videókat DXVA mellett, nálam se volt gond e téren az RX470 is gond nélkül gyorsította DXVA-ban a 4K AVC és HEVC videókat. A YT viszont VP9-et használ, ami a Polaris-nak már problémát jelent (de még a Vega-nak is).
Szóval amíg DXVA mellett nézel 4K HEVC videókat, a CPU-dnak nem kell csinálnia semmit.


Fehér Farkas
(senior tag)

Na igen, a tudatos vásárló a neki és pénztárcájának megfelelő keresztmetszetben választja adott terméket, ott is szelektálva. A probléma, hogy a legtöbb tudatos vásárló is emberből van és érzelmei vannak amiket nem tud kizárni. Én is sok felesleges, nem legmegfelelőbb dolgot vettem már meg, csak mert az érzelmek vezéreltek. Viszont boldog voltam vele, mert azt vettem ami tetszett. Talán ez lenne a boldogság felára pénzben mérve.


GhostRider93
(csendes tag)

Megnéztem . 8K youtube félelmetesen élvezhetetlen :DDD .CPU nem kódolt semmit(max a netet) de a GPU video encode 100%-on. 4K alatt már hasonló volt az előzőhöz: GPU video encode 40-50%-on( fogy.=15-16W) ,CPU terhelés csak az adatforgalom miatt nött meg pár %-al ,frame droppok nem voltak. 20.11.1 a driver(frissítetem azóta)

Letöltöttem(8K) de csak WEBM-ben sikerült(VP9 talán) és a VLC le sem játszotta de a gyári win10 lejátszó már igen, számomra nem volt élvezhető mert folyamatosan eldobta minden másodpercben majdnem 2x (szabályos időközönként) átlag embernek még nagyon talán élvezhető de össze sem lehet hasonlátani a böngészőben való lejátszással .GPU 90-100% on (video encode) de csak max 30W-ot fogyasztott. Nem értem a böngészőben(Chrome) miért nem megy úgyan úgy, ha valaki tudja majd írja le :) .

Ebben a kategóriában Nvidia sokkal jobb (8K). 6000-es sorozatban elvileg jobb a video encode de ezt látva bőven ráfért a redeonokra. Szerencsére mire lesz 8K megjelenítő itthon(ha lesz egyáltalán) addigra már rég nem ez a gép lesz.

"filmezős" gép most foglalt :)

[ Szerkesztve ]


bozont
(veterán)
Blog

Nekem szépen ment a YT 1440p60 és 4k60 az RX480 mellett, persze lehet az i5 4690k tolta ki izomból, ezt nem néztem. A felvételre nem emlékszem, lehet kipróbáltam, viszont a YT képes feldolgozni a HEVC-t is (ezt már Vega56-tal próbáltam).


kenwood
(addikt)
Blog

A 4690k a 30 hz 4kval meg ugy ahogy elbir,de a 60 total eselytelen neki.


GhostRider93
(csendes tag)

4K-ban [kép] 8K-ban meg a frame droppok és ugy 2/3-ad arányban voltak vagyis csak 1/3-ad jelent meg :DD :W

üzenetek