Az Ubisoft és a gépgiény növekedése

írta: Abu85, 10 éve

A napokban jelent meg az Assassin's Creed: Unity hivatalos gépigénye, amelyről a GAMEPOD be is számolt. Az adatokat nem fogadta nagy kedvvel a világ, hiszen a potenciális PC-s játékosok 90-95%-a nem üti meg a minimális elvárásokat, vagyis nem számíthatnak sok jóra a teljesítmény tekintetében.

Az Ubisoft kapcsán régóta téma, hogy hol csúsztak félre, hiszen évek óta gyenge minőségű PC-s portokat tesznek le az asztalra, amivel jellemzően nem is törődnek, de ma már úgy néz ki, hogy ennél komolyabb a helyzet. Az okok keresésénél szokás szerint felmerült újból a hardvergyártók, elsősorban az Ubisoft hivatalos partnerének számító NVIDIA emlegetése, de valójában ez nem ilyen egyszerű.

Az NVIDIA számára is rendkívül káros, amit az Ubisoft az utóbbi időben letesz az asztalra, hiszen a saját felhasználóik is küzdenek a gyenge PC-s portokkal. Nem véletlen, hogy az Intel és az AMD teljesen elhatárolódik az Ubisoft játékainak reklámjától. Bár amennyire tudják segítik a fejlesztést, de hosszabb távon nem kifizetődő folyamatosan rossz minőségű PC-s portokhoz adni a cég nevét. Az tehát ki van zárva, hogy az NVIDIA kéri, hogy legyenek rosszak az Ubisoft PC-s portjai. Jó esély van rá, hogy amint lejár az aktuális szerződés az NVIDIA nem fogja folytatni az Ubisoft hivatalos partnereként, hiszen az említett kiadó már nem mondható előnyös szövetségesnek.

Mi történik?

Most, hogy a külső tényezőket kizártuk előjöhet a legfőbb kérdés: mi történik az Ubisofton belül? Az előző évtized végén nagyon sok kiadó gondolt a játékfejlesztés egyre növekvő költségeire. Rengeteg kutatás indult meg az optimális irány kialakításához, hiszen sokak számára több platform kiszolgálása a kulcs, és ezt a lehető legköltséghatékonyabb módon kell kivitelezni, amellett persze, hogy a játékosok minden platformon elfogadható minőséget kapjanak. A tökéletességre való törekvés itt sok cégnél a háttérbe szorul, hiszen az túlzott befektetést igényelne. Szimplán nem lehetne visszatermelni az ezzel járó költségeket, így a fő szempont mostantól a szimplán jó élmény biztosítása mindenki számára.

Tökéletesen optimalizált játékokat tehát senki se várjon, nagyon kevés kiadó engedheti meg magának, hogy erre ügyeljen. Jó példa erre a Square Enix, amely kiadó kapcsán jellemzően minden játékos elégedett a Nixxes Software és a United Front Games műhelyéből érkező PC-s portok optimalizálásával, de például az egyes korábbi játékok felújított verziójánál is látható, hogy találtak bennük sebességet, tehát amit általánosan tökéletesnek hittünk az sem volt az.

Az Ubisoft szempontjából a gond ott kezdődött, hogy az előző évtized végén rossz irányba indultak el szinte minden elágazásnál. A költségek és a többplatformos játékfejlesztés optimalizálása érdekében természetesen kivizsgálták, hogy mik a lehetőségek, de a megoldás szempontjából ellenkezőjét csinálták annak, amerre az ipar többi szereplője tartott.

Erre rengeteg jó példa van a PC-s optimalizálás szempontjából. Jó alapot ad az összehasonlításhoz a hasonlóan nagy befolyású Electronic Arts, hiszen ez a kiadó is szembenézett ugyanazokkal a problémákkal – ahogy mindenki, de furcsamód ma teljesen más utat járnak, mint az Ubisoft. Persze több probléma merült fel az új generációra való felkészülés kapcsán, és ezeket sorban meg lehet vizsgálni:

1. A rajzolási parancsok problémája

Ez az egyik legnagyobb gond a PC-s és a konzolos fejlesztések kapcsán. Amíg a PC-n a DirectX 11-hez a Microsoft képkockánként maximum 2000 rajzolást ajánl, addig az Xbox 360 és a PlayStation 3 is képes volt 20000 rajzolásra, és sejthető volt, hogy az új generációs, akkor még csak papíron létező Xbox One és PlaStation 4 ezt is jelentősen túlszárnyalja (így is lett). A probléma tehát egyértelmű, de voltak potenciális megoldások.

Az Ubisoft a deferred contextben látta a PC-s jövőt, míg az Electronic Arts ezt az irányt már az első teszteknél elvetette és az instancing agresszív alkalmazása, illetve az immediate context manuális többszálú optimalizálása felé fordultak.

Az Electronic Arts okai a döntés során egyszerűek voltak, hiszen a tesztekben nem működött a deferred context. A skálázódáshoz egyre több processzormagot kellett adni a grafikus meghajtónak, így amit ezzel a módszerrel nyertek, azt kamatostul elvesztették a felhasználható valós processzoridő szűkülésével. Az immediate context manuális többszálú optimalizálása nem kecsegtetett akkora elvi előnnyel, mint a deferred context, viszont működött, még akkor is, ha rengeteg humánerőforrás befektetését igényelte. Az Ubisoft ezzel szemben úgy gondolta, hogy a deferred context csak időszakos problémában van, amit arra vezettek vissza, hogy a gyártók még nem tudták jól implementálni.

Itt el is értünk az egyik rossz döntéshez, ugyanis az Ubisoft eredmények nélkül választotta a deferred context ösvényét, pusztán abban bízva, hogy 2011-2012 körül már sokkal jobbak lesznek a grafikus meghajtók ebből a szempontból. Ez egy óriási kockázat is volt a részükről, hiszen benne volt a bukás esélye. Az Ubisoft mentségére legyen mondva, hogy 2009 körül, amikor ezt eldöntötték még mindegyik PC-s gyártó azzal kecsegtette a céget, hogy működhet a deferred context koncepciója, csak időbe telik, amíg megoldják. Mára persze sokat fordult a világ. Idén még a Microsoft is bukásként jellemezte a deferred contextet. Gyakorlatilag az Ubisoft feltett öt évnyi munkát egy olyan irányra, amelyről ma a koncepció megalkotója is lebeszél mindenkit.

2. A tartalomkészítés problémája

Az első hibás döntés az Ubisoft portáján egy láncreakciót indított el, és további hibás döntésekbe kényszerítette a kiadót. A vállalat úgy kezelte a rajzolási parancsok problémáját, hogy pár készülő csodameghajtó majd mindent megold idővel, és az aktuálisan gyenge teljesítményű motor hirtelen szárnyalni kezd. Éppen ezért az adott játék esetében a tartalmat sem optimalizálták PC-re.

A tartalomkészítés során lényeges szempont, hogy az eltérő képességű platformok eltérő tartalmakat is kapjanak. Itt nem a minőségről van szó, hanem a platform jellegzetességeihez való igazodástól. Konzolokon kicsi a többletterhelés, így nem szükséges rendkívüli módon optimalizálni arra, hogy az adott modell minél kevesebb rajzolásból jöjjön létre. PC-n már érdemes úgy elkészíteni a modellt és a hozzá tartozó textúrákat, hogy figyelembe veszik a tervezők a kevés rajzolási parancs kiadásának lehetőségét, illetve már jó előre be kell rendezkedni az agresszív instancingre. Fontos kiemelni, hogy a PC-s minőség így is lehet ugyanolyan jó mint a konzolos, vagy akár jobb is, de a PC-re optimalizált tartalom elkészítése sokkal több időt vesz majd igénybe.

Ahogy említettük az Ubisoft úgy számolt, hogy csak egy időszakos problémát élnek meg és később jönnek a szuper grafikus meghajtók, ezért a fejlesztés alatt álló PC-s portok zömében a konzolos tartalmat kapták meg. A helyzet akkor kezdett meleg lenni, amikor a deferred contextet támogató grafikus meghajtók lassan teljesen megszülettek, és nem történt semmi. A várt sebesség egyszerűen nem jött. Bizonyos területen valóban nőtt az átlagos sebesség, de a komplex jeleneteknél inkább negatív skálázódás volt megtapasztalható, vagyis az Ubisoft annyira várt csodameghajtói sokszor rontottak a sebességen. A gond forrása az volt, ami miatt az Electronic Arts már helyből elvetette ezt az irányt. A skálázódás hiába valósítható meg elméletben, ha ez a játék más számításai elől elveszi a processzoridőt, vagyis amit a deferred context hoz, az kamatostul elveszik máshol.

Az éles próba is lehangoló volt, amikor az önjelölt asszaszinok betértek az 1700-as évek Bostonjába, és az akkoriban erősnek számító PC-ken másodpercenként 15-20 képkockára is lecsökkent a sebesség. Ekkor az Ubisoft is felismerhette, hogy elszámolták magukat.

3. Egy motor és sok motor

Tulajdonképpen az Ubisoftot évek óta a 2009 környékén meghozott döntés következményei hátráltatják. A vállalat számára vissza kellett állni a PC esetében a speciális tartalomkészítéshez, ami nem várt tényező a kiadások szempontjából, ráadásul az erre kényszerűen elköltött pénznek is megvolt a helye, hiszen a kiadó több specifikus motort tart fent házon belül, ami elvi szinten kifizetődő, hiszen a rendszereket mindig az adott programhoz lehet optimalizálni. Ehhez képest ma az Electronic Arts portáján azt látjuk, hogy van egy motor, és erre épül majd minden.

A több motor vagy egy motor fenntartásának is vannak előnyös és hátrányos tényezői. De ma kétségtelenül az "egy motor mind felett" elv tűnik a legjobb opciónak. Ugyan egy stúdiót teljesen elvisz annak a motornak a fejlesztése, illetve a házon belüli partnerstúdiók igényeinek kiszolgálása, de rendkívül sok pénzt lehet a motor optimalizálásába ölni, és ebből automatikusan részesül minden házon belüli stúdió. Ezzel szemben az Ubisoft optimalizálásra szánt pénze jelenleg 5 különböző motoron oszlik el. Tehát effektíve akkor is csak az ötödét tudják költeni egy-egy rendszer optimalizálására, ha az Electronic Arts kiadásaihoz mérhető büdzséjük van erre.

Az Ubisoft aktuális gondjait tehát főleg az okozza, hogy még ha van is annyi pénzük a fejlesztésekre mint az Electronic Artsnak, akkor is ez a pénz jelenleg 5 rendszer között oszlik el. De ez megfordítható, így azt is lehet mondani, hogy az Electronic Arts kiadásainak többszörösét kellene költeniük optimalizálásra, ha olyan eredményeket szeretnének elérni, mint a konkurensük. Nyilvánvaló, hogy a pénz mennyisége limitált, és az optimalizálás egy olyan terület, ahonnan jellemzően elvonhatók az erőforrások, hiszen ha az eredeti terv nem sikerül, akkor a megjelenésre csak le kell butítani az adott játék grafikáját és meg is van a kívánt sebesség.

Ha csak a PC-re összpontosítunk, akkor a különbség az optimalizálás szempontjából igen extrém. Az Electronic Arts érkező Dragon Age: Inquisition című játéka ajánlott gépigény tekintetében sem kér olyan erős PC-t, mint az Assassin's Creed: Unity minimum szinten. Ebből jól látszik, hogy egy öt éve meghozott hibás döntés által elindított láncreakció mennyire elképesztő félrefejlesztést vonhat maga után, ami ma már extrém mértékben veszélyezteti az Ubisoft játékok technikai szintű versenyképességét. A probléma egyébként még így is megoldható, de szükség van legalább két évre, amíg elkészülnek az igazán új generációs fejlesztések, amelyek minden stúdiónak és kiadónak tiszta lapot biztosítanak.