Strategia wczesnego dostępu Larian's Divinity oparta na wymuszonych kosztach sprzętu
Optymalizacja Divinity stała się nieoczekiwanym priorytetem dla Larian Studios, ponieważ rosnące ceny sprzętu zakłócają długoterminowe plany rozwoju kolejnej gry fabularnej studia. Według dyrektora generalnego Larian, Swena Vincke, rosnące koszty pamięci RAM i dysków SSD zmuszają zespół do przeprowadzenia głębokich prac technicznych znacznie wcześniej niż zamierzano, zmieniając sposób, w jaki Divinity będzie postępować we wczesnym dostępie.
Wypowiedzi te padły podczas wywiadu z TheGamer, w którym Vincke opisał rynek sprzętu, z którym studio nie miało wcześniej do czynienia. Ceny pamięci i pamięci masowej, od dawna uważane za wystarczająco przewidywalne, aby je zaplanować, stały się niestabilne z powodu globalnych niedoborów i rosnących wymagań infrastruktury sztucznej inteligencji. Ta niestabilność ma natychmiastowe konsekwencje dla studiów tworzących gry na PC na dużą skalę, zaprojektowane z myślą o wczesnym dostępie przez lata.
"Co ciekawe, kolejną kwestią jest cena pamięci RAM i dysków SSD. Dosłownie, nigdy tak nie było" - powiedział Vincke.
W przypadku Larian problem nie ogranicza się wyłącznie do kosztów. Architektura gry dla długotrwałej wersji wczesnego dostępu musi przewidywać przyszłe normy sprzętowe, jednocześnie działając dobrze na dzisiejszych systemach. Tradycyjnie, studia mogły polegać na stałych ulepszeniach sprzętu konsumenckiego i spadających cenach, aby wchłonąć pewne nieefektywności na wczesnym etapie. Vincke twierdzi, że te założenia już nie obowiązują.
"To w pewnym sensie rujnuje wszystkie twoje prognozy, które miałeś na ten temat, ponieważ normalnie znasz krzywe i możesz chronić sprzęt" - powiedział. "To będzie interesujące. Oznacza to, że najprawdopodobniej już we wczesnym dostępie będziemy musieli wykonać wiele prac optymalizacyjnych, których niekoniecznie chcieliśmy robić w tym momencie".
Zmiana ta wpływa zarówno na harmonogram, jak i priorytety twórców. Optymalizacja jest zwykle odkładana na późniejsze etapy rozwoju, gdy systemy, grafika i zawartość ustabilizują się. Wykonanie tej pracy wcześniej może spowolnić iterację i zablokować decyzje techniczne wcześniej niż planowano. Dla studia znanego z reaktywnego rozwoju i systemowej głębi, ten kompromis jest znaczący.

Szersza przyczyna leży poza kontrolą Larian. Producenci pamięci przekierowują pojemność w stronę serwerów AI, które polegają na pamięci o wysokiej przepustowości i ogromnych macierzach pamięci masowej. Podczas gdy konsumencka pamięć RAM i pamięć dla centrów danych nie są identyczne, konkurują one o wspólne zasoby produkcyjne. Ponieważ inwestycje w sztuczną inteligencję wciąż idą w setki miliardów, dostępność sprzętu konsumenckiego jest coraz mniejsza.
Rezultatem jest rynek, na którym pojedyncze pamięci RAM mogą zbliżyć się do kosztu całych konsol obecnej generacji, a ceny dysków SSD wykazują oznaki podobnej presji. Dla deweloperów skoncentrowanych na komputerach PC, zwłaszcza tych nastawionych na szeroką kompatybilność systemową, wzrosty te przekładają się bezpośrednio na ograniczenia projektowe.
Sytuacja ta nałożyła się na niedawne przyznanie przez Larian, że wykorzystuje narzędzia generatywnej sztucznej inteligencji w ograniczonych częściach swojego przepływu pracy. To ujawnienie wywołało krytykę, biorąc pod uwagę rolę sztucznej inteligencji w napędzaniu niedoborów sprzętowych wpływających na studio. Vincke odniósł się do tych obaw, wyjaśniając zakres tego zastosowania, podkreślając, że nie zastępuje ono artystów ani nie generuje ostatecznych zasobów.
"Nie" mocno "naciskamy" na artystów koncepcyjnych ani nie zastępujemy ich sztuczną inteligencją" - powiedział Vincke. "Używamy narzędzi AI do odkrywania referencji, tak jak używamy Google i książek o sztuce. Na bardzo wczesnych etapach ideacji używamy go jako zgrubnego zarysu kompozycji, który zastępujemy oryginalną grafiką koncepcyjną. Nie ma porównania".
Wyjaśnienie to łączy Larian z kilkoma innymi dużymi studiami, które po cichu przyjęły podobne narzędzia do wczesnych eksperymentów, a nie treści produkcyjnych. Mimo to ironią pozostaje fakt, że nawet minimalny udział w przepływach pracy AI wiąże deweloperów z ekosystemem przekształcającym ekonomię sprzętu w całej branży.
W przypadku graczy, wpływ ten będzie prawdopodobnie widoczny w wymaganiach systemowych i docelowej wydajności na początku cyklu wczesnego dostępu Divinity. Bardziej agresywna optymalizacja może oznaczać szersze wsparcie sprzętowe w momencie premiery, ale może również spowolnić wdrażanie funkcji, ponieważ zasoby inżynieryjne przesuwają się w kierunku stabilności wydajności. Vincke określił to wyzwanie jako możliwe do pokonania, choć niepożądane, i podkreślił, że adaptacja jest częścią rzeczywistości tworzenia gier.
"Jest to wyzwanie, ale to gry wideo" - powiedział. - Swen Vincke
Ponieważ ceny pamięci i nośników danych wciąż się zmieniają, rozwój Divinity może stanowić wyraźny przykład tego, jak zewnętrzne siły rynkowe kształtują obecnie kreatywne i techniczne decyzje na długo przed premierą. Dla Larian, optymalizacja Divinity nie jest już późnym etapem polerowania. Staje się ona podstawowym wymogiem, wynikającym nie tyle z ambicji, co z kosztów sprzętu, którego gracze będą potrzebować do uruchomienia gry.
Przeczytaj również: Larian wyznacza granice dla sztucznej inteligencji, gdy Divinity przechodzi do pełnej produkcji, w którym studio opisuje, w jaki sposób narzędzia generatywne będą ograniczone do wewnętrznego wsparcia, podczas gdy cała dostarczana zawartość pozostanie w pełni stworzona przez człowieka podczas przejścia Divinity do pełnego rozwoju.

Komentarze