Én meg a linkelt Philips-en lepődök meg hogy azon mi kerül annyiba amikor az alig 400k-s már kifutó LG-k tudják a 120hz-et... Vagy a Philipsnél csak fényefektet kell megfizetni?
AMD GPU-k jövője - amit tudni vélünk - Videokártyák fórum
hozzászólások
Jack@l
(veterán)
Busterftw
(veterán)
Nekem ez tetszett inkabb:
"if this turns out to be true AMD will have caught up to Nvidia which they haven't been able to do in a decade."
Mintha az Nvidia nem jonne ki uj szeriaval. Ha a 3080Ti-nel nem gyorsabb, mar bukik az elmelet.
Raggie
(őstag)
Hát azért ha a mostani szériánál 40-50%-al gyorsabbak lesznek, akkor még ha ki is jön új szériával az nVidia, akkor is sokkal közelebb lesznek hozzá mint már 10 éve bármikor.
Mert ugye Nv-nél kb ennyi vagy kevesebb szokott lenni egy generáció váltáskor a sebesség növekedés.
[ Szerkesztve ]
Alogonomus
(őstag)
Azt is vedd figyelembe, hogy a pletyka szerint ebben az esetben a Big Navi 300 W-ból hozná a 2080 Ti teljesítményének a másfélszeresét.
Nvidia csak szintén pletyka szerint, de 350 W-os kártyát volt kénytelen készíteni erre a csatára. Szóval 50W (15%) fogyasztáselőnyt már tálcán átnyújtott az AMD/AiB mérnököknek, amiből azok szükség esetén tovább tudják húzni a Navi kártyát, ha kell. 5600XT 12->14 GHz újrajátszva?
Ráadásul az Nvidia kártya 350 W-os verzióját erősíti a monstre tápcsatlakozó híre is, amit az Nvidia a kártyáihoz valószínűleg nem poénból vezetett be.
Persze a számítási teljesítmény nem lineárisan emelkedik a kártya fogyasztásával, de az a 15% fogyasztás szükség esetén újabb 10% teljesítményt is jelenthet a Navi oldalán, és még mindig csak annyit fogyasztana, mint az alapkialakítású 3080Ti/3090.
[ Szerkesztve ]
keIdor
(titán)
Szerintem is túlzás egy Fury, Vega duó után ezt várni. Csodák nincsenek, nem lehet ekkora hátrányt pikk-pakk utólérni.
RTX-2080Ti szintet hoznak mondjuk egy 699€-ért, annak már szerintem simán örülne a többség és sokkal reálisabb is egy ilyen.
Busterftw
(veterán)
En meg ennek sem tapsolnek.
2080Ti 12nm-en 250W (valos 280-290W gaming)
Big Navi 7nm+? 300W (ami mennyit fog kajalni?)
Azzal a +15% fogyasztassal sem szamolnek, kb a Vega ota koppra voltak huzva a kartyak, kb semmi tuning potencial nem volt bennuk.
Persze nem zarom ki, de az a +10% teljesitmeny lehet nem fer bele abba az extra 50W-ba, foleg mert ez az 50W TDP.
Én azt gondolom pedig, hogy Nvidia most alászaladhat egy pofonnak. Épp jött ma pletyka , hogy az Ampere alig 10 % kal gyorsabb órajeleket képes csak elérni , mint a Turing. Az pedig nem sok, már ha igaz, messze van a szintén pletykált 2,3-2,5 GHz-tól.
Lehet nem kellene játszani 8 nm rel hanem egyből 7 re és minél előbb 5 re ugrálni, és minél előbb kitapasztalni a gyártástechnológiát kidobni rá több generációt.
Ha ezek az órajelek igazak akkor bizony a 3080 vagy 3080 ti nem fogja hozni az ígért 50-( max annyi)meg 90 % előrelepést, maximum RT terén tud nagyobbat dobni, a nagy Navi meg könnyen odaléphet akár a 3080 Ti szintjére,de az biztos, hogy a felső házba az Amperehez nézve is, ami ennyi év után elég nagy dolog.
Azért persze mindent úgy kell nézni, hogy pletykákról van szó,de ebben a topikban erre kell alapozni a témát.
szóval igen itt ha Nvidia nem is alszik be, de a mohósága miatt, hogy pénzt akar spórolni de közben nem nyúl az elérhető legjobb gyártástechnológiához és a kártyáit drágán adja mainstream gaming vonalon, megszívhatja.
és ez hosszabb távon is ront a cég megítélésén ami most hogy nem tekintik magukat gamer VGA gyártó cégnek bizony szarul sülhet el. Már megy a tőszdei elemzés hogy elérheti az 500 dolláros részvény árfolyamot, hivatalosan többet ér mint az Intel a tőzsdén a zöld cég, egy ilyen fiaskó bizony nem fog jól esni nekik részvényekben sem...
[ Szerkesztve ]
7 nm-en se lenne más. Ahogy korábban írtam, a FinFET a végét járja, tehát kell két-három generáció, mire elkezded úgy használni, hogy jönnek az órajelek. Lásd AMD. Ők sem kezdtek 2 GHz-en az első két 7 nm-es dizájnnál, de a harmadikat már 2 GHz fölé lövik. Nem változott semmi, csak az elmúlt két évben megismerték a gyártástechnológiát.
Sajna ez ilyen. Az egyik megoldása ennek a problémának, hogy a lehető leghamarabb GAAFET-re kell lépni.
[ Szerkesztve ]
szmörlock007
(aktív tag)
"Hát azért ha a mostani szériánál 40-50%-al gyorsabbak lesznek, akkor még ha ki is jön új szériával az nVidia, akkor is sokkal közelebb lesznek hozzá mint már 10 éve bármikor."
Nem tudom mi ez a 10 év, 2013 év végén amikor az r9 290x kijött konkrétan a legerősebb volt a piacon, a rá érkezett válasz, a 780 ti pedig kevéssel előzte csak meg, miközben jóval drágább volt
Nagyon kivancsi leszek, hogy ebbol a sok pletykabol majd mi valosul meg.
Bar lassan korvonalozodik a konkurencia, AMD-rol nem igen hallunk sokat.
Tovabbra is azt mondom vagy nagyon durvan odatapostak most, hogy ne legyen leak, vagy marhara sehol se vannak meg.
Bizom benne, hogy az elobbi es nem pedig az utobbi a helyzet naluk.
awexco
(őstag)
Lehet jót tesz amd-nek , h szétválasztják a vga portfóliót . Az órajelek mellett nVidia hozhat a fejlettebb generációval is nem keveset ...
K0zm0
(aktív tag)
Hali!
Tudom, a kérdésemnek nem biztos, hogy ez a megfelelő topik, de máshol nem kaptam rá választ.
Egy kis segítségre/véleményre lenne szükségem! Egy ismerősöm eladásra kínál egy Gigabyte Radeon HD 7970-at (https://www.gigabyte.com/Graphics-Card/GV-R797OC-3GD#ov). Nem titok, 20 eurót kérne érte. Annyi a rizikó, hogy nem tudta letesztelni és jelenleg nálam se megoldott a tesztelése. (Jelenleg nincs alá vasam.) Állítása szerint újra volt pasztázva, de nem tudta használni, mert nem fért be neki a házba. Eddig Nvidia vonalon mozogtam, úgyhogy a Radeonok még újak nekem, kb melyik Nvidia kártyával van egy szinten?
Megéri így látatlanban a kockázatot? Előre is köszi!
[ Szerkesztve ]
Én hülye vagyok, de egy 1000$/€ (nVidiánál 1500) környéki kártyánál már lesz*rom mennyit fogyaszt, mert úgyis megy rá a vízhűtés.
Busterftw
(veterán)
En is leszarom, csak az osszehasonlitas miatt hoztam fel.
K0zm0
Hasrautve a GTX 760 es 770 kozott van.
[ Szerkesztve ]
K0zm0
(aktív tag)
Hmmm...az még labdába rúg kategória, legalább is szerintem. Bár nem mai konstrukció, de hajtani nem szeretném már ha tényleg működik. Félig-meddig munkára illetve egy kis "light gamingre" fognám be.
[ Szerkesztve ]
Amit a vs részről irsz, 100%-ban egyetértek.
Ahogy korábban írtam, most van itt a lehetőség az AMD számára, hogy felzárkózzon.