üzenetek

hozzászólások


Graphics
(Jómunkásember)
Blog

Goldenfir tapasztalat: [link]
Kingdian [link]

Kingspec: [link]
Xraydisk: [link]

Goldenfir-t én egy "superpendrive-ban" használok, 2242-es méretben, 128GB-ost. Több, mint 2 éve. N960-ast.

Ja párom egyszer ki is mosta... 1 óra 40 perces programon... :DDD

Jinyjaier-en leolvasható minden, érdekes öszvér: [link]
SATA-s verziókkal nincs tapasztalat, egy ideje nem rendeltem aliról... érthető okok miatt, és nem a termékek miatt.

[ Szerkesztve ]


ddekany
(veterán)

Mit jelentek a cikkben ezek 30-50 GB körülire becsült cache-ek? DRAM-ból ekkora már csak nincs ilyen hétköznapi használatra szánt SSD-kben, tehát miféle cache megvalósítás lenne ez? Nem inkább valami más miatt lassul be ennyi folyamatos kiírás utána az SSD? Pl. túl melegszik.

[ Szerkesztve ]


pjani
(tag)
Blog

sziasztok, továbbra is köszi a hozzászólásokat, most igyekszem válaszolni:

#3 JárásiBetmen: ide feltöltöttem a SMART képernyőmentéseket: link
Ide pedig a tartósságteszt 2 hetes futásánál elmentett állapotokat: link

#5 tibaimp: az MX500-at nem indítottam a tartósságteszten, egyszerre 4 meghajtót kezelt az alaplap, és nem került bele a kiválasztásba

#9 BiP: köszi a magyarázatot, valóban ez volt a cél :)

#11 ANW2: köszi, egyelőre megálltam az MX500-nál, de lehet, hogy később megnézném a Samsungot is. Most épp nincs elég alkatrészem egy tesztrendszer összedobásához, de ha később összeállna, keresni foglak!

#13 stimpyx: ezek a meghajtók is elég siralmasan írtak pár GB után, de ez várható is volt. Azonban ha nem szekvenciálisan akarunk írni több GB-t, vagy ha pl. oprendszert töltünk be, sokkal jobb az élmény a leggagyibb SSD-vel is, mint a leggyorsabb HDD-vel.

#17 forumpista: igen, ez logikus magyarázat, köszi!

#85 vandor01: ez jó :D a felsorolt márkákból kettőről hallottam már...

#88 FireFox1196: igen, köszi, ez párszor nekem is eszembe jutott - csak nem akkor, amikor kellett volna :)

#102 ddekany: szerintem a becsült cache három dologból állhat össze, egyrészt a meghajtó saját DRAM cache-e (ha van neki), másrészt az ún. SLC cache (egy bizonyos tárhelyet SLC módban lehet használni ideiglenesen, arra gyorsabban tud írni), harmadrészt pedig, ahogy forumpista írta, a PC RAM-ja. Én pusztán csak azt néztem, hogy szekvenciális írásnál kb. hány GB után lassult be.
De majd a hozzáértőbb kollégák megmondják a tutit :)


Teasüti
(nagyúr)
Blog

Thermal throttling is jelen lehet. Ez m.2 meghajtóval jellemző, amikre már kelleni szokott a passzív hűtés. Anélkül képesek HDD tempó alá lassítani: 30-50 MB/s nálam, ami szánalmas. Hűtéssel már nincs ilyen gond.


oszy
(veterán)

Éni s köszönöm a írásod/munkád! :K


KRi2
(aktív tag)

Köszi a tesztet. Régi pH-s minőség. Főoldalas. Embereknek.


ubyegon2
(nagyúr)
Blog

Pár gondolat motoszkál napok óta a fejemben, néhányat említek csak:

Az van, hogy az olcsó SSD-k kisebb teljesítményű, akár régebbi gépekbe tökéletesek, de jobb, drágább gépekbe mindenképp érdemes a nem belépő szintű SSD-ket választani. (kb ezt az egy mondatot elég is lenne itt hagynom) :)

Ég és föld lehet a különbség a belépő és középszintű SSD-k között, nyilván a meglévő DRAM ill host memory buffer-t alkalmazó megoldások például egy Samsung esetén már nem csak a saját hardverkomponensek használata miatt, de ezek saját hw/sw fejlesztései, optimalizáltságuk miatt is tartósabb jó teljesítményre képesek. Szaktopikban is azokat a meghajtókat ajánlják, melyeket az ismert gyártók (Samsung, WD/Sandisc-Toshiba, Micron/Crucial) saját komponensekből rakják össze az eszközt, nyilván jobban optimalizáltak, de ezen kívül még elég komoly fejlesztéseket is hozzátesznek, ettől lesznek jóval megbízhatóbbak azoknál a gyártóknál, akik vásárolt komponensekből összerakják az SSD-t, de különösebben sokat már nem tesznek vele.

Alig esik szó az eszköz elektronikájának védelméről, pedig a belépő eszközök jó része nem azért megy tönkre, mert a komponensek nem jó minőségűek, hanem azért, mert optimalizálatlanok és nincs kifinomult védelmi rendszerük. (nyilván így tudnak olcsók lenni)

Ez a fedélzeti cache :Y téma olyan téma, amire még gyúrhattál volna egy kicsit, nagyon elnagyolt, pedig lényeges a cache alkalmazása bizony! Vezérlőtől függ például a HMB és annak hatékonysága. Belépő SSD-k nem is minden esetben használnak HMB-t, egyszerűen csak futnak, ahogy bírnak. A saját NAND cache is lehet fix méretű és/vagy dinamikus, jó példa a saját fejlesztésekre a Samsung IntelliWrite megoldása vagy a WD/Sandisk nCache 2.0 technológiája, bár utóbbival elég galád módon kiváltották a WD Blue sorozat DRAM cache-ét... [link]

Úgy tudom DRAM cache-t és/vagy fix+dinamikus SLC cache-t is a középmezőnyös SSD-k alkalmaznak, például Samsung 860/870 EVO..., 970 EVO Plus...mondjuk ez már épp nem középmezőny. :N

Sajna a tesztjeid komoly melóbefektetést igényeltek és érdekesek is, viszont jórészt fals eredményeket is hoztak. 17-es hsz-ban már utalt az okokra fórumtársunk, de jóval bonyolultabb a dolog ennél, én is laikus vagyok nyilván, de régebben próbáltam tesztelni SSD-t és csak úgy érdemes, ha a teszt paramétereit magad tudod beállítani. Komolyabb teljesítmény teszteket a a fio, Bonnie hdparm, dd és társaival érdemes csinálni. Amikor az eredmény jó részét a tesztelő gép hardverösszetevői befolyásolják.... :(
itt van pár egyszerűbb példa a paraméterezhető tesztelésre(van benne hiba, de ez most lényegtelen) [link]

[link](ennek a hsz-nek a végén van két kép, ami még egyszerű GUI-s alkalmazással is jól mutatja, mekkora különbség lehet írásban/olvasásban, ha kikapcsolod a cache-t!)

Amúgy tetszik a blogod, jó elgondolás, a végrehajtás is komoly meló, de pár dologban el kell még mélyülnöd, hogy real-közeli értékeket tudj kimutatni.

Piszok érdekes tud lenni egyébként az SSD technológia és sw fejlesztési témakör, pár évvel ezelőttig engem is érdekelt, de hamar elértem a határaimat szerintem techno és IT analfabétaként. :-) Szerintem nézegesd a hsz-ben linkelt írásokat és tesztelő programokat, hátha kedvet kapsz hozzájuk, no persze a legpontosabb teszteket nem csilivili Win alatt készíti az ember, nem véletlen CLI-s programokat ajánlanak ezekhez!

Ja és a lényeg! Nem olvastam az access time kifejezést sehol, pedig igazán ez számít a belépő szintű SSD-k esetén, semmit nem ér a sustained terhelés*, a szekvenciális írás, kizárólag a hozzáférési idő számít, ez adja az SSD nagy előnyét a HDD-vel szemben, ugyanis itt cc. 90-szeres az érték az SSD javára! Nem 5-6-szoros, mint a szekvenciális írásnál/másolásnal!

Ennyit gondoltam megosztani építő jelleggel, remélem annak veszed a kritikai elemeket. (egyébként pár totál értelmezhetetlenül bugyuta hsz miatt nem nagyon akartam hozzászólni, de mivel nem szaktopik, mindenki akkora marhaságot ír, amekkorát bír...)

[ Szerkesztve ]


Graphics
(Jómunkásember)
Blog

Pedig a legtöbb külföldi oldalon is Win alatt tesztelnek.

Ez mainstream vonal, nem hard-user teszt.

Sima egyszerű fapados SSD-t az esetek döntő többségében Win alatt használóknak...

Mondjuk én erre azt mondanám neked, hogy akkor uccu neki teszteld az általad kivitelezett metódusokkal. :)

Én értem , kedveled a Linuxot, de vonatkoztass el néha tőle.

[ Szerkesztve ]


ubyegon2
(nagyúr)
Blog

Pedig a legtöbb külföldi oldalon is Win alatt tesztelnek.

Persze...de akkor az a jó? Vagy jó az úgy is kategória? :D Értem amúgy, mire gondolsz, mivel le is írtad, szóval én is homeuser vagyok, csak volt szerencsém találkozni komolyabb tesztelő programokkal és mi van, ha fórumtársunknak megtetszik a dolog? Ne zárjunk már ki alapból kifejezetten okos dolgokat! :N

Én értem , kedveled a Linuxot, de vonatkoztass el néha tőle.

Inkább csak használom sok éve, de nem csak én és miért is kéne elvonatkoztatni tőle? Mert többség Wint használ? :P (na jó, kedvelem is, de ez indiferens most)

Mindegy, lényegében Te is láttad az eredményeket....nagyon nem reálisak és ez nem a tesztelő hibája!

Csak ötleteltem, javasolgattam, nem kekeckedtem. Ilyen is van.

[ Szerkesztve ]


Graphics
(Jómunkásember)
Blog

Hál'istennek, hogy nem kekeckedtél.

Nem vagy Te home-user, csak mindig azt állítod. ;]

[ Szerkesztve ]


ubyegon2
(nagyúr)
Blog

Hál'istennek, hogy nem kekeckedtél.

Szinte sose, de néha odáig alakul, ezt be kell ismernem! :B

Nem vagy Te home-user, csak mindig azt állítod. ;]

8 éve Linux Mint Cinnamon-t használok, az meg közismerten abszolut kezdőknek való disztró, gyakorlatilag nagymamaOS! ;]

Jut eszembe, több helyen olvastam itt felsorolásként, hogy Sata és M.2...ez elég zavaró tud lenni, lehetne Sata és NVMe inkább, mert van, akinek meglepő, hogy az M.2 az lehet Sata is! Szó se róla, elég kacifántosak ezek a csatoló meg protokoll dolgok az SSD-knél....

Ja meg a Samsung az hulladék....aham, hogyne! Kár, hogy nem hozzám hullik be pár zsáknyi, mondjuk 980 Pro meg 860 EVO-k vegyesen. :DDD

[ Szerkesztve ]


Ciccuka
(veterán)
Blog

Mixza nálunk kb. 2 év megy hiba nélkül egy HP brand gépben.

[ Szerkesztve ]


Ciccuka
(veterán)
Blog

HDS-ből van már újabb is:
Hard Disk Sentinel PROFESSIONAL
Beta

[ Szerkesztve ]


pjani
(tag)
Blog

Köszi a hozzászólást! Láthatóan sokkal jobban értesz a témához, mint én :), de hadd vitatkozzam azzal az állításoddal, hogy "nagyon nem reálisak" az eredmények. Pontosan melyik eredményekre gondolsz?

Igyekeztem az átlagfelhasználónál felmerülő feladatokat elvégeztetni a tesztalanyokkal, írás üres és teli meghajtóra, olvasás, klónozás, Windows-betöltés, stb. Véleményem szerint az eredmények, amik kijöttek, igenis reálisak.
Az lehet (vagy inkább valószínű), hogy célszoftverekkel, Linux alatt profi lett volna a teszt, de ezekhez nem értek és őszintén szólva a kézzelfogható, "gyakorlati" eredményeket mindig is többre becsültem, mint az elméletiket. Nyilván lehetett volna írni a hozzáférési időkről, de milyen gyakorlati értelme lenne a meghajtókat ez alapján rangsorolni? A tesztprogramon kívül mérhető/érezhető valahol, hogy az SSD nem 5-6-szor, hanem 90-szer alacsonyabb hozzáférési idővel rendelkezik, mint a HDD?

Ezt a tesztet nem akartam többnek láttatni, mint ami: egy laikus műkedvelő gyakorlati bemutatója egy érdekes témáról. Nem az volt a cél, hogy mindenféle tesztprogram alapján állítsak fel sorrendet (amint láthattad, a szintetikus tesztek csak említés szintjén kerültek be).


ubyegon2
(nagyúr)
Blog

A tesztprogramon kívül mérhető/érezhető valahol, hogy az SSD nem 5-6-szor, hanem 90-szer alacsonyabb hozzáférési idővel rendelkezik, mint a HDD

Igen, ez az egyetlen igazi érzés valós, amikor valaki HDD után először elkezd SSD-t használni! Az access time különbsége a leglényegesebb, mivel ha belegondolsz, egy átlag user a napi használat során ezt érzékeli, nem másolgat egész nap, hanem használja a gépét böngészik, multimédiázik...(abban igazad van, hogy SSD-k között a különbség nehezen érzékelhető, mivel microsecundumokról van szó)

Amit eddig nem említettem, a sustained tesztnek igazán DC SSD-knél van jelentősége, home user SSD-nél kb nulla értelme van. A tartós írásterhelés sosem valósul meg átlagfelhasználónál, otthoni gépkörnyezetben a belépő SSD épp azért kevésbé stabil, mint egy középkategóriás Samsung 860 EVO, mert rendszertelenül kapja a különböző terheléseket. Ezt még fokozza az is, hogy egy olcsóbb notebook sincs úgy elektronikailag optimalizálva, mint egy drágább gép, főleg érvényes ez az üzleti kategóriára. (emiatt vesznek sokan új belépőszintű noti helyett használt üzletit) ;)

Mondok HDD területről egy példát, adott desktopban tápegység hiba miatt alaplap is elfüstölt és volt benne egy WD Black HDD meg egy átlagos minőségű, látszatra mindkettő meghalt, viszont helyreállító programmal a WD Black teljesen visszaállítható volt, a másik nem(nem az adatokra gondolok itt) nyyilván a WD Black komolyabb elektronikai védelmi rendszerének köszönhető, hogy az túlélte. Hasonló különbségek vannak a belépő olcsó SSD-k és egy saját fejlesztésű komponensekből összerakott, optimalizált, elektronikai védelemmel ellátott 860 EVO között is. Jobb gépbe sem a gyorsasági különbségek miatt érdemes középkategóriás SSD-t venni, hanem a hosszabb távú tartóssága, stabilitása miatt. (egyébként maga a DRAM cache is a sok apró fájl betöltésében vesz inkább részt, emiatt jobb a hozzáférési idő)

"Ezt a tesztet nem akartam többnek láttatni, mint ami: egy laikus műkedvelő gyakorlati bemutatója egy érdekes témáról."

Nyilván, írtam is, hogy tetszett, komoly meló volt és érdekes is. :)

"Az lehet (vagy inkább valószínű), hogy célszoftverekkel, Linux alatt profi lett volna a teszt, de ezekhez nem értek és őszintén szólva a kézzelfogható, "gyakorlati" eredményeket mindig is többre becsültem, mint az elméletiket. "

Az említett tesztprogramok eredményei igazán gyakorlatiak, ha belegondolsz, mire is használják a Linuxokat(nem az otthoni desktop Linuxokra gondolok), akkor nyilván belátod, milyen gyakorlati céllal készültek ezek a programok, hiszen egyre inkább DC SSD-ket használnak komolyabb szintű szervereknél is, hogy a nagy supercomputerekről ne is beszéljünk.

Mivel szerinted az általad mért teszteredmények reálisak, az általam említett programok eredményei meg elméletiek, így ezen tovább nincs is értelme menni, mivel hitvitákba SSD ügyileg nincs értelme belemenni ez esetben sem.

Windows-betöltés eredményei nagyon tetszettek, Minap felraktam a legfullosabb asztali kezelőfelületű KDE-vel egy disztrót, 5.18 sec volt a bootideje...egyre lassúbbak ezek is, 5-6 éve még egy hasonló Antergos 2,7 sec alatt bootol. :-)
(anno egyik ok, hogy lecseréltem a Wint Linuxra, épp az volt, hogy lefőtt a kávém, mire bebootolt a Win7)

Egyébként tényleg totál laikus vagyok én is, amiatt kezdett érdekelni anno az SSD téma, mert akkoriban, mikor az első SSD-met vettem, még olyan kérdések voltak, hogy jól kezeli-e a Linux az SSD-t, mint eszközt...persze azóta kiderült, hogy nagyságrendekkel jobban, de ez egy másik kérdés már. Szerencsémre épp egy Intel 520 120GB volt az első példány, ami atomstabil volt, ma már elég lassúnak számít, talán épp Sandforce vezérlős, ami épp nem használ semmilyen host buffer cache-t.

Annyit még, hogy olvastam itt, hogy 20% helyet hagyni kell az SSD-n, különben nagyon lelassul....hát ez így baromság, de akit érdekel, olvasgasson a szaktopikban overprovisioning témában kicsit.

[ Szerkesztve ]


Graphics
(Jómunkásember)
Blog

De az overprovisioning nem a sebesség miatt van...


ubyegon2
(nagyúr)
Blog

De az overprovisioning nem a sebesség miatt van...

Azt csak azért említettem a végére, mert pár hsz-ben szó esett arról, hogy 10 meg 20 %-ot üresen kell hagyni. Már ez az üresen hagyás is elég félreértelmezhető, sokan úgy értik, hogy particionálatlanul kell hagyni ekkora helyet. Aki relatív kis méretű SSD-t használ, annak nagyon nem mindegy, mekkora helyet dob el, akár feleslegesen is! :N

Érdekes, mennyire hasonló kinézetre a régi és mai adattárolás! :D

[ Szerkesztve ]


Donki Hóte
(veterán)

Nem kell szabadkoznod a teszt miatt, itt ötven ember megköszönte a tesztet, az pedig hogy egy elitista fórumtársnak tegnap délután kihült a levese mire enni tudott, ezért idegállapotba került, az nem igazán ront a statisztikán.

Igazából a tesztednek csak annyi az eredménye, hogy kevesebb különbség van két különböző SSD között, mint ugyanazon típusba tartozó SSD-nek egy nem publikált belső hardvermódosítás előtti és utáni eredménye között.


BiP
(nagyúr)

(emiatt vesznek sokan új belépőszintű noti helyett használt üzletit) ;)
Többek között emiatt is, meg sok más szempont miatt. De úgy lehetne fogalmazni, hogy "jobban össze van rakva", aminek egyik eleme, hogy elektronikailag jobb.

Mivel szerinted az általad mért teszteredmények reálisak, az általam említett programok eredményei meg elméletiek, így ezen tovább nincs is értelme menni, mivel hitvitákba SSD ügyileg nincs értelme belemenni ez esetben sem.
szerintem ez inkább úgy értelmezhető, hogy ő gyakorlati, átlagfelhasználó általi használathoz közeli, parktikus teszteket végzett el, míg az általad említett programok azért ritkábban kerülnek elő.
Az is biztos gyakorlati, csak az átlag user nem is találkozik vele, neki megfoghatatlan, így számára "elméleti".
Adott környezetben az is praktikus, gyakorlati, csak más célcsoportnak.

Az access time különbsége a leglényegesebb,
Ha már access time különbségekbe belemegyünk, akkor megemlíthetjük még az IOPS értéket is. Azért egy márkásabb, magasabb kategóriájú SSD többet tud, szintén döntő lehet pont az említett felhasználásnál. (win használat, böngészek, csinálok ezt azt, random elérés).

Én ezek miatt szoktam mindig méretben is eggyel nagyobbat venni, mert az paramétereiben is jobb (gyorsabb, több IOPS), és az overprovisioning miatt sem kell aggódni. Akár kéne, akár nem :) Mondjuk az enyémben elvileg a user által elérhetőn felül van gyárilag lecsípett hely overprovisioningre, szóval elvileg nem kell foglalkoznom vele.
No meg ha megnő a helyigény, akkor nem kell idő előtt cserélni.

[ Szerkesztve ]


Synthwave
(HÁZIGAZDA)
Blog

Az az MX500-as eléggé kakukktojás a felhozatalban, mert egy sokat bizonyított, jól bevált modell. Nálam személyes kedvenc, gyakorta szoktam ajánlani, így a közvetlen ismerősök körében már elterjedt, és nekem is van három. : >

Illetve ahogy mások is rávilágítottak, lehet, hogy a Samsungnak vannak eléggé kérdéses termékei, de az SSD-i pont nem azok; a QVO szérián kívül Top 2 ajánlás szokott lenni. Mondhatni piacvezetők a szegmensben.

[ Szerkesztve ]

üzenetek