üzenetek

hozzászólások


lezso6
(HÁZIGAZDA)
Blog

És ugye van az FP64, ami teljesen külön ALU NV-nél. AMD-nél ez nagyon másképp megy, ugyanúgy INT32-t is tudnak az FP32 ALU-k, de FP64-ben kicsit vegyes a kép:

GCN1: 1/4 FP64
GCN2: 1/2 FP64
GCN3: 1/16 FP64, natív FP16 és INT16 de utóbbiak csak azonos sebességgel
GCN5: 1/16 FP64, FP16x2, INT16x2, INT8x4

GCN4-et kihagytam, mert nincs változás, ISA-ban ugyanaz, mint a GCN3.

Az AMD ugyanazt az utat járja, csak FP64-ben kompromisszumos, a GCN architektúra miatt nincs más választása, mint hogy az FP32 ALU-kat (pontosabban 16 utas SIMD tömböket) fogja be FP64-re. De 1/2 FP64-et csak egyszer láttunk, azóta meg vicc a teljesítmény ebből a szempontból, inkább kisebb pontosságra gyúrtak a FP64 hátrányára. De ott nagyon.

Persze ezek csak az adattípus támogatások, a műveletekről egy szó sem esett, ebben az AMD sokkal jobb. Lásd mining. :D

A Rapid Pack Math pedig jó, persze ez Compute Shader-en kersztül használhatos, szóval szokás szerint csak top motorok fogják nyomni, ahogy minden új feature-t. :D Sok esetben simán jó a kisebb pontosság is, továbbá a Rapid Packed Math nem csak FP16-ról szól, hanem INT16-ról is. Utóbbit pedig lehet használni a mostani GeForce-okon is. Így viszont az a kérdés a kis Voltáknál, hogy az NV melyik kezébe harapjon, ha Rapid Packed Math-ról van szó. :D INT16x2 vagy FP16x2. Persze lehet a Volta INT ALU-i tudnak INT16x2-ot, így elég a Tensort kidobni és kész.

[ Szerkesztve ]

üzenetek