üzenetek

hozzászólások


Duree
(veterán)

Igaz, lemaradt.


GoldhandRent
(őstag)
Blog

ez a szomorú NV vonalon

#79Apollyon
lehet nekem a hülyeségem, de nekem nem előrelépés az, hogy xx70 helyett vegyek egy xx60 kártyát. eltelt 3 generáció, alap dolog, hogy egy kissebb kategória hozza az adott szintet.
de nem véletlenül nem vettem se 2070-et, se 2080-at, 3070-et és 3080-at sem.
a 20xx szériánál nem volt meg az a növekedés, ami indokolta volna a cserét, 30xx nél meg az árak szálltak el... vagyis eleinte nem lehetett ugye kapni, aztán meg nem lehetett kapni ÉS drága is volt.
öcsém a 970-et váltotta 2070-re 120k-ért (EVGA), ami egy tök fair ár, de nekem megintcsak nem volt okom a cserére

az én elvem az, hogy vagy az adott szintet veszem az annak megfelelő áron, vagy az afölöttit magasabb, de szinténcsak annak a szintnek megfelelő áron

1440p-ben játszom egyébként 144-es monitoron, de a 1070 már nem igen tud 60 fps fölé menni közepes grafikán (Forza Horizon 5 pl)


1dude
(aktív tag)

Megvárhatod a 4080 -at, de az is a 800-900€ ársávban fog mozogni.


Apollyon
(Korrektor)

A lényeg az volt, hogy 1080 Ti után a következő 3000-es RTX az a 3060 Ti, amire érdemes lehet váltania 1070-ről. (ha nem 1440p lenne a cél .D)

[ Szerkesztve ]


Apollyon
(Korrektor)

Ja, hát 1440p-re 3070 a minimum. A számozás mindegy amúgy, a 3060 Ti-k nem szarabbak a 1070-nél. A 3060-as kártyák 1080p gamingre vannak, ez korábban a 1080 Ti-k feladata volt. Ha ugyanúgy 1080p-re mennél csak, akkor sem kéne feltétlenül 3070. De ez mindegy is, 1440-re akkor kell, igen.


1dude
(aktív tag)

Az attól függ, mivel játszol. Nekem minden megy 1440p -ben, 144hz -en 120-130fps -el egy gtx 1660 -al is. Igaz, AAA játékokkal nem játszom.


GoldhandRent
(őstag)
Blog

igen, ez sajnálatos.. infláció ide vagy oda, de nagyon megugrott az MSRP ár

extra szomorú, hogy a teljesítménynövekedés plusz pénzbe kerül, pedig a generációváltásnak nem erről kéne szólnia. generációváltáskor az előző gen + x% teljesítménynövekedés az elvárás azonos áron (merthogy váltja az előzőt)

még annyi remény van, hogy a 40xx széria lenyomja a 30xx széria árát, vagy akkora teljesítménynöveledést hoz, hogy esetleg megéri azt a plusz lóvét

#85Apollyon
azt értem, és tudom, hogy a 3060 Ti nem szar.
csak a saját hülyeségem, hogy az adott szint alá nem szeretnék menni, hiába erősebb kicsivel
hülye példa, de pl 1440p @120 hz monitor helyett nem veszek 1080p @165 hz-t, mert gyorsabb, hanem majd 1440p @165-öt vagy 4k@120-at

ha meg a 1080p @165hz monitor többe kerül az adott időben, mint amennyiért a 1440p@120-at vettem, akkor rohadjon rájuk
ha meg a 1440p@165 (ami a 1440p@120-at váltja generációban) nem ugyan annyi, mint amennyi a @120-as volt, akkor rohadjon rájuk
ha a 1440p@165 ára stimmel, és mondjuk a 4k@120 arányosan drágább, akkor még azon lehet elgondolkozni

szummába:
kivárok, max a fentebb említett AMD (#78 1dude) vonalra átslisszolok, és/vagy jöhet a PS :K


1dude
(aktív tag)

Én nem hiszem, hogy nagyon lenyomná az árát, inkább az lesz, ami eddig is volt. A piacon levő kártyák felé lesz pozicionálva.

Ha most kellene vennem egy 1440p kártyát, 470-480€ a 12GB RX6700XT. Szemrebbenés nélkül behúznám.

[ Szerkesztve ]


podtibi
(senior tag)

Egyáltalán nem megugrott, szimplán látják hogy van kinek telik rá és nem bánja rá a pénzt. Az hogy neked/nekünk nem felelnek meg ezek az árak, az nem változtat a végeredményen. Én személy szerint azt ajánlom hogy ne várakozzál. Nem azért mert a 40xx-es széria ne lehetne jobb(Meg persze ott a 7000-es széria is.), hanem mert bármi megtörténhet. Ha az nvidia képes volt ilyen magas "msrp"-vel neki rugaszkodni az egésznek és még a kripto is képes részesülni belőle, akkor nagyon érdemes elgondolkodni a pc kihagyásán vagy minél hamarább a megvásárlásán.

Megéri? Elég lesz arra amire kell? Ha igen, akkor hajrá. De alaptalanul/meggondolatlanul ne ugorj bele az egészbe. Most dönts amíg még lehet, mert az amd sem fog örökké ilyen áron kártyákat osztogatni.


Fücsök007
(őstag)
Blog

Sőt Intel ARC A770/780 is opció lehet később. Mostanság lett elfogadható a drivertámogatás, de kb. 5-6 hónap alatt lehet hozzá érett driver. (Sokan elfelejtik, hogy AMD-nél évek teltek el, mire a VEGA architektúra ténylegesen beérett, Intelnél jóval több programozó van, így gyorsabb lesz a folyamat.) Már 1,5 éve lehetett tudni, hogy képes lesz a csúcskártya az RTX 3070 és 3070Ti közötti teljesítményre, továbbá biztosan jobb árban fogják árulni mint a két konkurens termékeit. :K
Már írtam máshol is, hogy az A380 RX6400 körüli áron van, de van benne enkóder és 6GB Vram, ami sokkal jobbá teszi. Kiforott driverekkel minimum hozni fogja az RX6500 XT szintjét (már amikor nem fogja vissza a 4GB Vram és 64-bites busz). :B

[ Szerkesztve ]


nyunyu
(félisten)

Szív küldi Neked Homonyik Sándor 1988-as slágerét.


1dude
(aktív tag)

Az a kártya a megjelenése napján DOA státuszú lesz. Majd idővel (2-3 év) kiszoritják a notikból és egyéb OEM gépekből az NV és AMD megoldásait, ennyi lesz a feladatuk.

[ Szerkesztve ]


Fücsök007
(őstag)
Blog

Intel procis notikból ki fogják szorítani Nvidia-t, de a minőségi/prémium AMD-s notis változatokban nem valószínű, maximum az alsó középkategóriában lehet esélyük, ahová nem elég az IGP önmagában. Egyébként a LoveLace érkezéséig eladják a legyárott kártyákat, mivel nem lesz nagy tételről szó. (Néhány tíz-szászezerről, függően melyik típusról van szó, mivel összesen kb. 4 millió ARC GPU-t gyártattak le TSMC-vel, ebből sok megy noteszgépekbe.) A komolyabb mennyiség a Battlamage-el fog érkezni, addig rágyúrnak szoftveres szinten, a Celestial széria pedig egyértelműen vetélytársa lehet az RDNA4-nek, ha nem csúszik be valami hiba.


1dude
(aktív tag)

A minőségi/prémium AMD noti kb fehér holló kategória, onnan valóban nem fogja kiszoritani ;]

A Battlemage/Celestial meg 2-3 év, ahogy irtam.


Vektast
(aktív tag)

Na akkor meg is érkeztünk 7 évvel ezelőtre csak kicsit drágábban! Taps-Taps!
GTX 1630 < GTX 1050Ti
RX 6400 < RX 470 4gb

A következő megálló a GTX 750 lesz 200€-ért. :C


Fücsök007
(őstag)
Blog

Nos nem a hazai piac a mérvadó ha notikról van szó. ;) A Battlamage nem fog annyit csúszni mint az Alchemist, elvileg 2023 közepe megoldható gyártás szempontjából, ha addigra kiküszöbölik a gyermekbetegségeket. Azt még nem tudni biztosan, hogy chiplet-es felépítésű lesz-e, illetve melyik gyártástechnológiával jön (szerintem 5nm-en, de addigra a 4nm-es gyártósorokból is sok lesz).
Hogy on is legyek, 1 év múlva még siralmasabb lesz a GTX1630-as "teljesítménye", gyanítom ezek el nem adott noti GPU-k, amiket rá akarnak sózni a tudatlan NVidia fanboy-okra jó drágán. :DDD


1dude
(aktív tag)

Nem is a hazai piacból indultam ki. A BM 2023/2024 -re szerepelt, de ha úgy lesz, ahogy te mondod, még legalább fél év, mire termék is épül rá. Fizikailag, nem papiron.
Ott van a 6000 ryzen, fél éve bemutatták, mai napig 2 kezeden meg tudod számolni, mi épült rá, ami kapható is. Ez sem lesz máskép.

A chip számozása alapján nem noti GPU.

[ Szerkesztve ]


NandoXXL
(senior tag)

https://www.arukereso.hu/videokartya-c3142/afox/geforce-gtx-750-ti-2gb-gddr5-128bit-af750ti-2048d5h5-p544982634/
70e forint, negfelel? :R


AlphaLionX
(csendes tag)

Le a kalappal az NVIDIA előtt. nem gondoltam volna, hogy az RX 6400 és 6500 valaha bármi mellett jó vételnek fog tűnni, de a GTX 1630 ezt elérte, elismerésem. Azért az alulteljesítésnek is annak érdemei, mert ez tényleg elképesztő
Ha a neve alapján árazták volna, vagyis $16-30 közötti MSRP (lol), még talán értelme is lenne


AlphaLionX
(csendes tag)

Azért tesztelik a videokártyákat egy felső kategóriás processzorral, hogy ne legyen bottleneck, mert akkor értelmét veszti a benchmark. Ugyanígy célszerű nem változtatni semmit a konfigban, kizárólag azt, amit épp tesztelsz, vagyis a GPU-t. A lenti példákat hasraütésre írtam, nem feltétlen tükrözik a valóságot, de az elméleti megértéséhez ez is elég

Vegyünk mondjuk egy i5-8100-at, ami mellett tesztelsz egy GTX 1630-at, egy RX 6700 XT-t és egy RTX 3090-et. A teszt eredménye a következő: A 1630 a legharmatosabb, viszont a többi GPU egyformán teljesít, mert a proci nem tud többet kihozni belőle. Ezt azt jelenti, hogy a 3090 ugyanannyit tud, mint egy 6700? Nem, csak az adott konfigból nem derül ki a különbség a kettő között

Fordítva ugyanez a helyzet, ha procikat tesztelsz egy GTX 1060-nal, akkor a legtöbb mai CPU kb. ugyanazt fogja mutatni játékokban, mert a 1060 nem képes többre, miközben a proci ott ül mondjuk 10% kihasználtság mellett. De ettől messze nem lesz egy liga a 3300X és egy 12900K annak ellenére, hogy az említett konfigban egyforma teljesítményt nyújtanak egy GTX 1060 mellett. Csak egyformának tűnnek, mert egy tőlük független összetevő korlátozza a teljesítményt, tehát értelmetlen a benchmark

Ezekben mindig az adott komponenst teljesítményét mérjük a többihez képest, hogy valami kézzel fogható adatot kapjunk arról, hogy melyik jobb vétel az adott áron vagy felhasználásra. Ennek hiányában maximum az árak és a nevek maradnak, arra támaszkodni meg sok sikert igazából. Ezek nem arra hivatottak, hogy "pont egy 5800X-et fogok a 1630 mellé tenni és akkor ezt fogja tudni", hanem hogy kizárólag a videokártya teljesítményét nézzük a többihez képest, miközben a gép többi része érintetlen marad, hogy minél kevesebb tényező befolyásolja az eredményt

Pld. egy i5-9400 +GTX 1630 az egyik tesztgépben, a másikban egy Ryzen 5600 +6600 XT, a harmadikban pedig egy 12700K +6800 XT. Az eredmény az, hogy a drágább gép sokkal jobb, duh. Ezt bárki meg tudja azonnal mondani, a teljesítménybeli különbség a felhasznált GPU-k között pedig nem összevethető, mivel a konfig többi része is teljesen más. Képzeld azt, hogy van két sportautó, mindkettő egymástól eltérő pályán megy egy kört, amit mérünk. A Ferrari megtett az X versenypályán egy kört 1:20 alatt, a Lambo pedig az Y pályát 1:43 alatt. De a két pálya teljesen más: eltérő hossz, más kanyarok stb. És most próbáld meg összevetni a kettőt, semmi értelme nincs mert nem egyező körülmények között ment a két autó, így a teszt teljesen haszontalan. Ha egy teszem azt drag race-en mennek egymás mellett és úgy derül ki, hogy a Lambo 3 másodperccel lassabb, az már használható eredmény, minden más kuka és időpazarlás

Egy dologban egyet kell értsek, mégpedig az UHD benchmark. Annak tényleg semmi értelme egy 1630-on és hasonlóan hulladék kártyákon szerintem. Még 1080-ban is siralmas, az afölötti teljesítmény szerintem senkit nem érdekel. Egy közép vagy felső kategóriás kártyánál megértem, főleg hogy az NVIDIA ebben a generációban átlagban jobban teljesít magasabb felbontáson, így ott érdekes lehet látni, hogy alakulnak a számok még akkor is, ha senki nem fog egy 3060-at 4K AAA játékokban használni. De egy "BeLéPő" szintű kártyánál ez mire jó, azt tényleg nem tudom


tamikomac
(aktív tag)

Tudom, és ezért is írtam, hogy:
"Értem én, hogy a Ryzen 7 5800X mindent kihajt..."
Így valóban kiderül, mit tud a kártya, nem lesz szűk keresztmetszet.
Részemről (és ezzel biztosan nem vagyok egyedül) akkor sem életszerű, mert ezek a kártyák nem 5800X-be és i7-12700, stb. gépekbe kerülnek, hanem Ryzen 3, i3, régi i5, 1-es, 2-es Ryzen 5-be stb... Egy bitang procival tesztelve "torz" képet ad a teljesítményéről (még egyszer tudom, hogy ne legyen szűk keresztmetszet :) ), engem nem az érdekel, hogy 8 mag 16 szállal 4GHz-en mit megy (főleg UHD-ban), hanem pl. i3-8100-al, mert nekem abban van egy korosabb VGA és nem szeretnék 90-et kiadni egy 1650-ért, 6500XT-ért, használtan pedig nem szeretnék VGA-t venni. Ez nem pont rám igaz, de sokan lehetnek úgy, ahogyan előbb leírtam.
Mindegy ez van, ezt kell elfogadni, vagy az ember kicsit utánajár mivel is jár jobban :) .
Pl. 6400, 6500-at "nem szabad" PCIe 3.0 (2.0-ba) rakni a 4 db adatsín miatt, azon procik amik meg tudják a 4.0-át nem olcsók (hacsak nem használtan Ryzen 3 3100, 3300X) és lap is kell hozzá, de pl. B450-es chipset meg még nem tudja a 4.0-át.
A magasabb számozású Ryzen 3 4100-ból meg kivették a 4.0-ás támogatást, ott meg hiába van B550-es chipsettel szerelt lapunk, a proci lesz a "szűk keresztmetszet".

Messzire visz ez az egész, valahogy túl sok lett a "buktató" és túl sok mindenre kell figyelni...


Kansas
(addikt)

Akkor téged nem VGA-teszt érdekel, hanem egy olyan CPU-VGA párválasztó, mint amilyet régebben többször is csinált a PH... de az elmúlt évtizedben valamiért felhagytak vele.
A Ryzen 3 4100-ból pedig nem vették ki a PCIe v4 támogatást, hanem soha nem volt benne, mert az egy IGP-nélküli Ryzen 3 4300G, amiről azt kell tudni, hogy AM4-es APU-ként nem chipletes hanem monolitikus chip, valamint egyik APU sem támogatja a PCIe v4-et(az Zen3-as 5x00G-k sem), így nyilván a belőlük "IGP-tlenítéssel" készült CPU-k sem.
Az RX6400 pedig PCIe v3-ba rakva is üti a GTX1630-at...
PCIe v2-be pedig új VGA-t egyik gyártótól se javasolt rakni...

p.s.: B550-es lapot mATX méretben már 20-25e áron lehet kapni(OK, a választék nem nagy)... pl. MSI-től

[ Szerkesztve ]

üzenetek