üzenetek

hozzászólások


satz18
(őstag)
Blog

Ez így van. Nem véletlen, hogy az Intel is csak évi 5 %- ot pakol a CPU-ira. Ez lesz a VGA piacon is, ha az AMD így megy tovább lefelé a lejtőn.


FLATRONW
(őstag)
Blog

Talán nem is lenne az rossz, ha az AMD VGA részlege is arra jutna, mint a CPU ág.
A 2600k CPU-mnak még ma is teljesen rendben van a teljesítménye, pedig nem egy mai darab, és nem is érzem szükségét hogy lecseréljem.


Cifu
(nagyúr)
Blog

Pár észrevétel:

1.: A billió helyett milliárdot akartál írni. Az amerikai 'billion' (10 a 9 hatványon) ugyanis a magyar 'milliárd' megfelelője. (milliárd @ Wiki - billion @ angol nyelvű wiki

2.: Az AMD utóbbi idők béli látványos térvesztése nagyban az átnevezéseknek is köszönhető szvsz. Lásd Radeon 7950 -> Radeon R280 / Radeon 7970 -> Radeon R280X. Az idei évben ugyebár a Fury-n kívül szinte nem is hoztak ki új GPU-t. Effektív szinten nincs értelme sem a váltásnak, hiszen látványos előrelépés nem történt, egy Radeon 7870 vagy 7950 manapság is bőven megfelelő FullHD felbontásban, sőt...

3.: Sikeresen kimaradt az IGP-k elterjedésének megemlítése, amely ugyebár pont az AMD esetében a DVGA-k kárára terjed. Ha valaki az AMD fejlődési vonalát tartja megfelelőnek, és nem az AAA játékokra bukik, akkor vesz egy erősebb APU-t, és nincs szüksége DVGA-ra. Ugyanúgy GCN videókártyáról van szó...


Cifu
(nagyúr)
Blog

4.: Azt is megjegyezném, hogy az nVidia sem csak a DVGA K+F-re költ, hiszen ott van a Tegra SoC fejlesztése és persze a Shield termékcsalád is.


.LnB
(titán)
Blog

Annyira feleslegesen okoskodsz már megint. Nem kell mindig, mindenki orra alá dörgölni ha valamit téveszt, vagy kihagy.

On:

Jó cikk lett gratula. Én sajnálom a jelenlegi helyzetet mert nem akarok nVidia VGA-t venni. :S Pedig lassan kellene valami új már.

[ Szerkesztve ]


Cifu
(nagyúr)
Blog

Miután azt nem írtad le, hogy mégis miben 'okoskodtam', találgatnom kell (a gondolatolvasás képességével sajnos nem bírok - biztos születési rendellenesség).

Ha a billion - milliárd közötti különbségre való felhívás csípi a szemed, akkor teljes mellszélességgel kiállok a megemlítése mellett. Sajnos az angol nyelvű forrásokra való támaszkodásnál egyre többször látom, hogy angolosan írják le a szavakat (billion - milliárd pedig e téren nagyon sűrű példa), de ennél kacifántosabbak is akadnak (kedvencem még Irak angolosan Iraq-nak írva, vagy Tajvan Taiwan-nak).

Majd szépen mindenki eldönti, hogy ez grammarnáciskodás, vagy egy elírásra való figyelemfelhívás. Én jobban örülnék, ha ez nem 'okoskodásnak', hanem inkább a helyes megfogalmazás és írásmód alkalmazására való felhívásként értékelnék az emberek.

Aztán természetesen az is előfordulhat, hogy a lektorálásnál követtek el ilyen hibát (nekem is javítottak bele címlapos írásomba úgy, hogy a megfogalmazás hibás lett.)


nemlehet
(őstag)
Blog

ŐŐŐ nincs igazad. A billió a magyarban 10^12-t jelent a milliárd meg 10^9-t. Nem kis különbség. A magyar billió az angolban már trillion. Szóval nagyon nem mindegy.

Amúgy sok szempontból nem értek egyet a cikkel. Alapvetően az író a technológiai hátrányra vezeti vissza az nvidia előnyét, de szerintem meg a sokkal jobb marketing az ok. A Fermi idején a zöldek kártyája evett sokkal többet mégse veszítettek ilyen látványosan piacot.

Az nvidia valahogy jobban belenyúlt a néhány éve felkapott "geek" és "nerd" világba. Rengeteg nagy streamert támogatnak (pl néhány éve PhantomLord is kapott 2 Titant emlékeim szerint amit kb minden egyes adásban mutogatott) , illetve mivel drágább azonos kategóriában sokan azt hiszik jobb is. Lsd. Tirexi. Ő megmondta, hogy "Az GTX jó, az AMD meg szar, laggol".
Rengetegen nézik, sok vérpistike azt se tudja mire jó a a "videjókárd" és megy GTX-et venni mert az a jó. De pl 9gag-en megosztott gaming PC képek is mind GTX-el készülnek (4way 980 sli mert az annyira megéri ugye). Ebből az egyszeri embernek az jön le, hogy az Nvidia a legjobb és ilyen gépet fog keresni.

Az előre összerakott tecsós és ósanos gépek 95%-a is Intel+nvidia, laptop szintén. És ez nem azért van mert az az olcsóbb, vagy ár/teljesítményben jobb lenne.

Szóval a technológiai hátrány egy dolog. Ez igazából csak a fogyasztásban jön ki ami sok embert igazából nem érdekel. Valószínűleg én is az erősebb kártyát venném azonos áron és nem érdekelne a fogyasztás és a zaj, mert amikor igazán hangos a kártya úgy is füles van rajtam, alapjáraton meg mindegyik csendes, főleg custom hűtéssel.

Szóval véleményem szerint a hátrány az a MEGFELELŐ médiumokban a marketingjelenlét hiánya és a be nem váltott ígéretek miatti csalódottságból adódik 90%-ban.

[ Szerkesztve ]


.LnB
(titán)
Blog

Nem arról van szó, hogy ne lenne igazad, vagy nem vagy intelligens, okos. Csak akárhova írsz mindig csak kijavítasz másokat, meg okoskodsz, hogy nem így van stb. Biztos jó szándékkal teszed, nem feltételezem, hogy nem. De nem feltétlenül sül ez el jól a másik fél részéről.

De hagyjuk is, nem kellett volna írnom inkább semmit, bocs. :R

(#7) nemlehet Ezt miért nekem? :)

[ Szerkesztve ]


Cifu
(nagyúr)
Blog

Ha most ezt erről az oldalról közelíteném meg, akkor ez a hozzászólásod meg irónikus trollkodásnak lehetne venni.

Nem vagyunk egyformák, lehet, hogy tényleg idegesítő sokaknak az, hogy 'okoskodom'. A szándék jobbító, még ha néha túl is lövök a célon...


Grenki
(csendes tag)

"Én remélem, hogy fel fog állni az AMD és ismét erős konkurensei lesznek az NVIDIA-nak, hiszen az soha nem visz előre, ha egyszereplős a piac, hiszen az árakat is felfelé tolja, ellenben a fejlődés üteme is jelentősen lelassul a konkurencia hiányában." Ebben bízok én is, az senkinek nem lenne jó ha az intel vagy az nvidia konkurencia nélkül maradna...


Cifu
(nagyúr)
Blog

Hosszú távon a helyzet az, hogy az nVidia bajban van, mert az Intel-el kötött megállapodása miatt nem gyárt integrált videókártyát x86 platformon. Ezért is indult el az ARM, illetve az ARM procik mellé szerelt saját videókártyák irányába. Ahogy az Intel és az AMD IGP-k fejlődnek, már most is kvázi feleslegesek a belépő szintű VGA-k, és pár év múlva ez feltehetően fel fog kúszni a középszintig, magyarul csak a felső kategóriás DVGA-knak lesz értelme. Szóval az nVidia szempontjából a Tegra ebbe az irányba való kitörésnek is nevezhető.

Ez a másik irányra is mutat, ugyanis az ARM szélsebesen elterjedt, és már ugye a miniszámitógépek és beépített rendszerekben, sőt, már a szerverekben is a csúcsra tör. Az Intel szempontjából az egyre borúsabb a kép, mert ha így halad tovább az ARM, akkor előbb-utóbb a kvázi x86 hegemóniáját a hajára kenheti...

Szóval ahogy a dolog kinéz, az Intel konkurenciája egyre inkább az ARM, és nem az AMD.

De ez csak az én meglátásom.


ddaydome
(senior tag)
Blog

Sziasztok!

Én kb. a 9600-as széria óta használok ATI / AMD videókártyákat és kb. az 1600pro-nál emlékszem utoljára Driver problémára, azóta nem volt (csak bétánál). Az AMD Apuja és az FX család isversenyképes szerintem, csak meg kell nézni 1-2 tesztet és kiszámolni az ár / teljesítményt és a válsz adja magát. Ebből kifolyólag szerintem a rossz marketing megállja a helyét, de tegyük hozzá, hogy a legtöbb 5 éve üzemelő alapgép is tökéletesen megfelel alapvető célokra, ami nem igazán indokolja a fejlesztést. Arról nem is beszélve, hogy az okostelefonok elterjedésével a hírolvasáshoz sem kell bekapcsolni a gépet. Kicsit megváltozott a helyzet pár év alatt a felhasználás terén.


ricinus13
(senior tag)
Blog

Gondolom mert te írtad hogy nem kell kijavítani. De kell mert egy 1000-szeres szorzó egyáltalán nem mindegy. Ha nem lett volna már szóvá téve én is bele szóltam volna mert hamis adatot közöl, még akkor is ha nem szándékosan.


Dr. Oid
(aktív tag)
Blog

Bocs, nem tudom kihagyni: "akkor ezt a hozzászólásod"-at és "ironikus"-t akartál írni, ugye? :)

[ Szerkesztve ]


BoB
(veterán)
Blog

Kiváló meglátás, teljesen egyetértek. Az ARM előbb vagy utóbb, de vinni fogja úgy a szerver, mint az asztali és laptop gépek piacát.

Részben örülök mert a fejlődésre, az újabb atchitektúrára szükség van. X86-nak gátat szab hogy visszefelé kompatibilisnek kell maradnia.

Ugyanakkor a régi játékok majd csak valami emulátoron fognak majd futni :D

De ez még egyelőre nagyon a jövő zenéje. Én olyan 20 évre teszem hogy az ARM már nagy szeletet harapott az asztali gépek piacából is.


Cifu
(nagyúr)
Blog

Nem jó a javításod sem, mert ha ezt-re akarod az ez-t javítani, akkor a hozzászólásod helyett hozzászólásodat lenne a helyes formula.

Abban a mondatban szerintem egyedül az ironikus / irónikus elgépelés a probléma.

Egyébként nem vagyok grammarnáci, egy alapvető szintű nyelvtant elvárnék azért egy hozzászólásnál is (nagybetük mondat elején, írásjelek használata, alapvető stilisztika, stb.), ahol én felemeltem az ujjam, ott konkrétan jelentésbeli eltérés van a billió alkalmazása miatt, tehát a leírt összeg nagyságrendje nem stimmelt.

bob.zxr: Ehhez aligha fog kellenni 20 év. 10 éve alig láttál valahol ARM procit a mobil piacon kívül. 2-3 éve megjelentek már a komolyabb eszközökben, például a Chromebook-okban, és elkezdtek terjedni a különálló megoldásokban, mint NAS vagy főleg az Rpi révén a fejlesztői DIY megoldásokban.

Azzal, hogy a Win10-et az IoT-k miatt az Rpi2-höz is kihozták, én arra számítok, hogy a Windows is ki fog terjedni ARM platformra egy kicsit bővebben, mint ahogy a Windows RT csinálta...


Dr. Oid
(aktív tag)
Blog

Az idézőjel engem is kicsit megkavart, rossz helyre tettem. Szerintem vagy "ezt a hozzászólásodat" vagy "ezt a hozzászólásod", esetleg "ez a hozzászólásod meg irónikus trollkodásnak vehető". Ha a régies is jöhet, akkor "eme hozzászólásod".

A lényeg: ahogy én is, te is, bárki hibázhat, be is bizonyítottam :) A nagyságrendi eltérés egy dolog, az nyilván nem mindegy, de hogy egy prohardver fórumon stilisztika meg fogalmazás legyen a téma, rendszeresen, az számomra abszurd. Nagyon kevesen vannak a nyelvtan és a többiek teljes és kikezdhetetlen ismerete birtokában. Ez persze szubjektív, csak az én véleményem.

[ Szerkesztve ]


gtamate2
(veterán)
Blog

A hibát javítottam, legközelebb az ilyen jöhet privátban is, egyébként a grafikonon látszott a különbség az elgépeléstől függetlenül. A marketingről és átnevezésről volt szó a cikkben.
Az átnevezésekről pedig pont nemrég csináltam táblázatot, hogy kicsit átláthatóbb legyen az egész.


Cifu
(nagyúr)
Blog

Utólag belegondolva tényleg a privi jobb döntés lett volna. :DDD


nemlehet
(őstag)
Blog

Azért a szerverpiacot szerintem nem eszik annyira forrón. Mire az ARM ott érdemben labdába rúghat az olyan távoli időpont, hogy azt is elfelejtjük hogy most mit gondoltunk. Esetleg a microszerverek/NAS-ok területén történhet ez meg hamar, de az talán nem akkora piac, valamint azért a CoreM-el az intel is igyekszik (bár szerintem marha drágán adja ami vissza fog ütni)

A noti dolog az elképzelhető, de ott meg az lesz a döntő, hogy mennyire fogják tudni emulálni az x86-ot. Az embereket marhára nem fogja érdekelni, hogy miért nem működik a 96-ban céges rendszergazdától lopott "videó véső" program, vagy mancikának miért nem megy a youtube downloader. Nem csak professzionális szinten van igény a visszafelé kompatibilitásra, hanem konzumer szinten is.

Esetleg akkor kerülhető ez meg, ha 1-2 generáció nő fel úgy, hogy tartalomfogyasztásra csak tabletet/telefont használ és egyáltalán nincs szüksége komolyabb programokra, tehát számára nem lesz fontos. De ez sem 1-2 év lesz.

üzenetek