üzenetek

hozzászólások


zsozsi33
(csendes tag)

Üdv!

Élvezettel olvastam végig a tanulmányt, ahhoz tudnám hasonlítani, mint ahogyan apró kortyonként ízlelgeti a zamatát az ember órák hosszán keresztül egy deci nemes bornak.
Az őskortól induló és megannyi generáció hasonlóságait és eltéréseit taglaló írás azt gondolom mindenkiben megindít valamit, akár a (rég)múlt technológiáira emlékezünk vissza mosolyogva, akár az előttünk álló (határtalan) lehetőségekre tekintünk előre várakozással telve, hogy mi minden lesz elérhető a jövőben...
A magam részéről hatalmas köszönet a cikkért, és mindenképpen a fődíjra érdemesnek találom, természetesen a megfelelő platformon voksolok is :))
Egy gondolat zárásul... elképesztőnek is nevezhető a fejlődés, ami zajlott és zajlik a CPU-k területén (is), mégis ha belegondolunk abba, hogy még a mai napig is fényévnyi távolságokra jár az emberi agy teljesítőképességéhez...
:C :C :C :R :R :R


vinibali
(őstag)
Blog

Vall be, hogy csak azért írtad ezt a cikket, mert meguntad az 1000értetlen kérdést a korábbi Fusionnel kapcsolatos cikkek hozzászólásaiban. Ha most valaki megkérdezné, hogy Oliverda miért van ez az XY, akkor te csak legyintesz és belinkeled a kollégának ha valamit ismét nem ért újabb olvasásra "utasítod"! :C
Az AMD most kicsit olyan, mint egy boxoló, aki évekig készül mert elkalapáták és most TECHNIKAI K.O.t mér ellenfelére az Intelre :)
Nagyon ÖTÖS cikket írtál, ha lenne itt is lájk gomb akár 100x is beregiznék hogy mindről adhassak egyet:)
szerk.: átraktam, mert inkább kicsit off a hozzászólásom:)

[ Szerkesztve ]


vinibali
(őstag)
Blog

komolyra fordítva a szót, nagyon "szórakoztató" - a szó jó értelmében vett - cikket írtál volt benne vissztekintés is. sok dolgot tudtam meg az új platformról, szinte amit mondtál mind új volt, talán a PR hiánya miatt. Én attól tartok, hogy az AMD abba a részünkről(vásárlók részéről) nagy hibába esik majd, mint anno amikor csak ők(ATi) tudtak DX11es karit kiadni, ergo ők nyomják az árakat. Ettől függetlenül, nagyon örülök hogy sikerül talán beérni az Intelt, ha pénzügyileg nemis, de technológiai megoldások szempontjából :C


Lewzke
(őstag)

Na ez igen. Rég olvastam hasonló színvonalú szakmai írást. :K
Lehet egy egyszerű kérdésem? A Core 2 architektúrából miért maradt ki a HT?


csatahajós
(senior tag)

Oli grat a cikkhez, szép munka és igényes, és szerintem kellően pártatlan is. Bevallom nekem a külföldi fórumok olvasása után nem volt akkora nagy reveláció, mint másoknak, mégis jó volt így egyben, összeszedve olvasni.

Mit vársz/tippelsz egyébként a négy modulos vasak felső órajelének ha már kicsit belendül a gyártás? Lehet hogy az AMD-é lesz az első 4Ghzes gyári alapórajelű proci (is - homályosan rémlik, hogy az Athlon lépte át először az 1Ghz-et)?


Jim Tonic
(nagyúr)
Blog

A core architektura egy tovabbfejlesztett PIII, ill. Pentium M architektura. Azokban pedig nem volt. A Core erkezeseig az Intel nagyon lemaradt az AMD mogott. Valoszinuleg ujra kellett gondolni a HT implementalasat, illetve megjelentek az elso tobbmagos CPU-k, igy a HT feleslegesnek tunhetett.


dfdfdf
(őstag)
Blog

Egyszerűen: Oliverda for president!
nagyon jó érdekes és változatos cikk :R


Oliverda
(félisten)
Blog

Kérdésed természetesen lehet, csak éppen én nem biztos, hogy tudok rá teljesen kerek választ adni. Egyrészt annyira sosem ástam magamat bele a Core 2 mikroarchitektúrába, másrészt amit olvastam az ezzel kapcsolatos lehetséges okokról az sem volt szentírás.

A HT használata bizonyos esetekben memória sávszélesség éhes, ahogy ez a P4-nél is tapasztalható volt. A Core 2 a (z FSB) rendszerének köszönhetően pedig annyira nem bővelkedett ebben (eleinte). Másodsorban állítólag viszonylag sok plusz időt jelent(ett) egy mikroarchitektúra validációjánál a HT, a Core 2-nek meg jönni kellett mihamarabb mert a P4 már nem volt elég az Athlon-ok ellen. Stratégiai okokból nem biztos, hogy megérte volna a plusz időt.

csatahajós: Szerintem meglesz a 4GHz. Az hogy először-e az majd kiderül...

vinibali: Hehe. Igen, valóban ez is egy motiváció volt mert elég unalmas már 25x leírni olykor ugyanazt. Így elég csak egy linket adni. :) Lájk gomb pedig van, a cikk legelején fent. Sőt még szavazni is lehet. :D A K.O.-val meg inkább várjunk még egy pár hónapot biztos ami biztos...vagy nem biztos.

[ Szerkesztve ]


jozsef m.
(tag)

Ehhez csak gratulálni lehet,élmény volt olvasni.

Kezdődhet a takarékoskodás.. :K


Oliverda
(félisten)
Blog

Ja, és természetesen köszi mindenkinek! :R


DraXoN
(addikt)
Blog

Jól összeszedett írás volt amit már ismerem, de megtudtam pár újdonságot is most :)
A még érdekesebb majd az lehet, ha a bulldozer és a fusion összeér a fusion 2. generációjában.. egyébként is arra az évre van tervezve a ~5-6 évenkénti gépcserém, így esélyes, hogy megvárom a 2. generációs fusionokat és azt veszek majd (egyébként is laptop de nem hordozom, csupán helyhiány miatt az, így vélhetőleg utódja is laptop lesz majd).

Nem tudom miért de nekem van egy olyan érzésem, hogy az AM3+ a jelenlegi szerepkörében lehet, hogy csupán egy kényszermegoldás lesz és az FM1 alaplapok megjelenése és tömeges elterjedése után szép lassan elkezdik majd visszaszorítani.. esetleg akár azzal is, hogy az alá a platform alá a megjelenő 9xx chipszettek után nem jön új fejlettebb generáció. (bár ez puszta találgatás, amit arra alapozok, hogy már így is sokat csúsztak az eredeti tervekhez képest és konkurenciát akarnak)

A Phenom nevet nem bánom, hogy elhagyják.. mindig utáltam... mikor anno bejelentették, hogy az új csúcs processzoraik mostantól ezen a néven jönnek, csalódtam mert ritka béna névnek éreztem... (Hasonlóan béna névnek érzem a mobiltelefonok szoftvereinél a samsung BADA nevű platformját.. a platformal nincs bajom, csak a nevét nem bírom...)


golya87
(őstag)

Gratula a cikkhez!
Bár követtem a fórumokat sok új dolgot olvastam.
Jól értelmezem, hogy a mostani felépítés alkalmassá teszi a procit, a bulldozer modulok shadertömbre való cserélésére? Ha jól értelmeztem, akkor egy huszárvágással elkezdődhet az, ami a VGA chipeknél van, hogy ugrásszerűen fog nőni a "magszám".


Chaser
(titán)

Egyrészt anélkül is igen ütős lett, másrészt ahogy mondták előttem P3-ból fejlesztették, a netburst meg ment a kukába. Harmadrészt valószínűleg tervük se volt erre, ilyen cégeknél előre gondolkoznak. Nem lett volna olyan ütős a core i HT nélkül, minden puskaport nem kell egyből ellőni:) Gyanítom most is megvárják mit mutat a bulldozer, addig komolyabb gyorsulás nem hiszem hogy lesz. Szerencsére a bulldozer is jónak ígérkezik, végre tudni fogja az SSE4.1 és 4.2-t, de ha jól láttam az AES-NI-t is, bár azt még nem sok minden használja ki, sok core i-ben sincs benne.


Oliverda
(félisten)
Blog

Látok rá esélyt, hogy az AM3+ és az FM1 később majd összeolvad egyetlen foglalattá ami már DDR4-es memóriát fog támogatni. Bár ennek egyik feltétele lesz, hogy minden asztali CPU-ban legyen már valamilyen GPU.

A Phenom helyett meg nem Bulldozer lesz a márkanév. Mér aki esetleg véletlenül ezt gondolná...

golya87: Nem. A modulokat nem lehet shader tömbökre cserélni.

"A megosztott FPU egyik jövőbeni előnye és fejlesztési iránya lehet, hogy a jelenleg még GPU-kban található shader tömbök átvehetik vagy kiegészíthetik az FPU-t. "

Ez csak az FPU-ra vonatkozhat majd és nem az egész modulra. Bár még ez is odébb van kicsit...

...és köszi!

[ Szerkesztve ]


stratova
(veterán)

Ha már szóba jött a platform esetleges összeolvadása, van bármi információ arról, hogy ebben az esetben miért feltétel az, hogy minden kompatibilis cpu-nak tartalmaznia kell grafikus magot? (vagy nem olvastam elég figyelmesen)
Pl Intel vonalon H-s lapokba tehető Core i5 530, 661, 750 és i860 is. Más kérdés, hogy nem feltétlenül jelentik a legjobb környezetet az előbbi cpu-k mindegyikének.


Oliverda
(félisten)
Blog

Valójában egy integrált 16+ sávos PCI-E vezérlő is elég lehetne, de szerintem hosszútávon desktop-on az lesz a cél, hogy csak a Fusion (FMx) vonal maradjon meg. Ez utóbbi pedig mindenképpen magában foglal egy GPU-t is.


Duree
(veterán)

Nagyon nagyon jó írás lett,végre szakszerű leírást kaptunk a jövöröl


stratova
(veterán)

Érdekes, viszont ebben az esetben vagy számottevő előnynek kell származnia az grafikus magból (tudom már most is előnyös a videó és webes anyagok gyorsítása) vagy nem csak az alacsonyabb teljesítmény szintű (lassan szándékosan kerülnöm kell a belépő szót :) ) VGA-kal lesz jó együttműködnie, hanem a nagy vadakkal is.
Máskülönben csak feleslegesen növelné a fogyasztást egy olyan PC-ben ahol egy bika CPU és egy esetleg két erős VGA van. Felőlem számolhat fizikát is amíg a (két) másik példány a megjelenítéssel izzad Quad HD alatt :]

Mondjuk előbb neveznék be egy konzolra plusz LIano-s notebookra mint egy ilyen erőműbe de azért megnézném. De pl szabadúszó 3D artistok nem tudom hol profitálnának az integrált GPU-ból, bár ez eléggé speciális felhasználási terület jellemzően az Nvidia feküdt rá

[ Szerkesztve ]


Oliverda
(félisten)
Blog

Ez minden bizonnyal csak akkor fog bekövetkezni, ha a GPU (vagy inkább a shader-ek) erejét már széles körben lehet használni általános gyorsításra is.


he7edik.
(addikt)

Lehet hogy volt róla szó a cikkben bár én nem találtam
Teoretikusan 100%-os kihasználtság mellett hogy viszonyulna egymáshoz a 4 Bulldozer modul vs 8 Bulldozer mag?

üzenetek