üzenetek

hozzászólások


Dragon3000
(veterán)

Értem, akkor az amd elismerte a hibát és szoftveresen korlátozta a kártyákat, az semmi. Ne akard már ennyire mosdatni az amd-t, amikor a cég elismerte a hibát. Gondolom erre nem tervezték a pcie részt és nem bírja a pillanatnyi túl terhelést sem, amit gondolom az alaplap mire lereagálna, addigra már szét is ment. Ha minden annyira szabványos, akkor hogy lehetett olyan amd vga, aminek 500W volt a tdp-je, közben meg csak 2x8pin volt a tápcsatlakozás? Akárhogy nézem szabványosan a 2x8pin+pcie együtt max 375W lehetne. Az említett vga az r9 295x2.
Mindegyik cég addig próbálja szőnyeg alá mosni a szarát, amíg lehet, ha már nem, akkor jön az elismerés. Lényegtelen, hogy amd, nvidia, intel......

[ Szerkesztve ]


Gyuri27
(félisten)

Mindegy mennyi az annyi (nyilván erre is van szabvány). Pl 4090 ugye. A slot annyit kell adjon.
Mondok mást. Brand gépekben nem ritka az 50 wattos pcie slot. Abba beraksz egy hagyományos kártyát mi történik? Elárulom semmi. Nem ég szét a slot. A verzió a rendszer el sem indul. Kisebb eséllyel elindul, de abban a pillanatban mikor kellene a kraft szépen leáll a rendszer.
Szóval nézhetjük ezt bárhonnan. Ha egy sloton esetünkben 12 volton 5,5A mellett 75 watt jöhetne ki akkor azon ne jöjjön már ki a másfélszerese.
De ha már itt tartunk. Az nv soha el nem ismerte, hogy a régebbi kártyái az újabb driverekkel mesterségesen lassultak. A hibás noti vga-at se, sőt az érintett szériák se voltak feltüntetve. Amikor a benchmarkokkal csaltak azért se volt egy bocsi se. Sorolhatnám reggelig.
És itt is mindenki hibás csak az nv nem. Erről ennyit.


Dragon3000
(veterán)

Ki beszélt 1,5x-ről? Ne akard már ennyire védeni az amd-t, ha jól emlékszem 80W körüli értékről írtak akkoriban, amit már nem viselt el a pcie vagy a kártyán lévő érintkező, mert ügye mindkettő sérült.
A felsorolásod nagy része az amd-re is igaz. Az itteni írások meg hol védték az nvidiát, hogy nem hibás? Én pl végig azt írtam, a csatlakozóval semmi gond, az átalakító kábel a szar, azt meg a hírek alapján az nvidia rendelte és rajtuk keresztül megy a partnerekhez, ezért igenis ők a hibásak, de nem azért mert sokat fogyasztana a vga, amikor a 3090ti-n ugyanilyen csatlakozó van többet is fogyaszt, csak értelmes átalakítókábelt csomagoltak mellé, így nem is volt vele semmi gond.

[ Szerkesztve ]


Reggie0
(félisten)

Nem is a feszultsegrol volt szo, hanem a felvett aramrol es ebbol a kettobol adodo teljesitmenyrol. A PCIe sin nem a feszultseg miatt eg szet, hanem a ho miatt, a ho pedig az erintkezok (belso) ellenallasan es atmeneti ellenallasan keletkezik, ami szoros osszefuggesben van az aram negyzetevel. Az alaplapnak pedig nem feladata az aram korlatozasa, azt a kartyanak maganak kell megtennie, az alaplap csak lekommunikalja vele, hogy mennyit szabad fogyasztania. Na ezert az AMD hibaja volt es nem az alaplapgyartoke, mivel a kartya nem kovette a szabvanyt. Ha a szabvanyt mindenki betartja, akkor nem tortenik ilyen. (Es a szabvanyt nem mond sehol olyat, hogy az alaplapnak tudnia kell aramot korlatozni, ahogy a tapegysegtol sincs elvarva, hogy a 6 pines tapcsatinal korlatozzon 75W-ra. Ez mind a kartya feladata.)

[ Szerkesztve ]


JulianSinulf
(senior tag)

A 4090 már tud 700W fölött is fogyasztani.
Hogy bírja a csati, egyelőre nem tudni, mert csak röviden járatta meg az illető, mivel csak a GPU volt vizesen hűtve, a memóriák és fesz.alkatrészek nem. De nem is átalakítóval vacakol.
Remélem, hogy már csinálja a komplett hűtést és nemsokára mutatja, hogy mit tud tuningolva a kártya.


Gyuri27
(félisten)

Olvass utána. A lapnak pcie 16-on max 66-75 wattot kell leadnia. Kevesebb lehet, több nem (lásd brand gépek).
Az megint más kérdés, hogy hol a lap védelme?

JulianSinulf: az mindegy. Slot felöl max 75 wattot vehet fel.

[ Szerkesztve ]


Reggie0
(félisten)

En terveztem pcie kartyakat, igy eleg jol ismerem ezeket a doksikat :) Az alaplapnak semmilyen vedelem nem kell, sot mernie sem kell az aramot. A kartya feladata betartani a korlatozast.

[ Szerkesztve ]

üzenetek