Podczas konferencji GDC przedstawiciel firmy NVIDIA zapowiedział wizję, która brzmi jak science fiction. Według zapowiedzi przyszłe generacje kart graficznych mogą osiągnąć nawet milion razy wyższą wydajność niż układy z serii GeForce GTX 1000. Kluczem do tego skoku mają być nie tylko nowe GPU, lecz przede wszystkim algorytmy oraz sztuczna inteligencja.
NVIDIA patrzy daleko w przyszłość GPU
Podczas tegorocznej konferencji Game Developers Conference (GDC) John Spitzer, wiceprezes ds. technologii deweloperskich i wydajności w NVIDIA, przedstawił ambitną wizję rozwoju grafiki komputerowej. Według niego przyszłość GPU nie będzie zależeć wyłącznie od coraz mocniejszego sprzętu. Równocześnie ogromną rolę odegrają algorytmy oparte na sztucznej inteligencji.
Spitzer przypomniał, że od czasu premiery architektury Pascal w 2016 roku (czyli generacji GeForce GTX 1000) firma osiągnęła ogromny postęp w renderowaniu grafiki. Dotyczy to zwłaszcza technologii Path Tracing, czyli symulacji zachowania światła w scenie w sposób maksymalnie zbliżony do rzeczywistości.
Według danych prezentowanych przez NVIDIA, w ciągu dekady wydajność w Path Tracingu wzrosła aż 10 000 razy. To wynik połączenia kilku technologii: wyspecjalizowanych rdzeni RT do ray tracingu, rdzeni Tensor do obliczeń AI oraz rozwiązań takich jak DLSS. Jednak (jak zaznaczył Spitzer) to dopiero początek.
Milion razy szybciej niż Pascal, brzmi szalenie?
Najbardziej spektakularna zapowiedź dotyczy przyszłych generacji GPU. Według wizji zaprezentowanej przez NVIDIA kolejne dekady rozwoju mogą przynieść nawet milionkrotny wzrost wydajności w porównaniu z architekturą Pascal.
Brzmi absurdalnie? Na pierwszy rzut oka tak. Warto jednak pamiętać, że firma nie mówi wyłącznie o „surowej mocy” układu graficznego. Chodzi o połączenie sprzętu, oprogramowania i AI.
Dobrym przykładem jest rozwój technologii DLSS. Najnowsze wersje systemu wykorzystują sztuczną inteligencję do generowania znacznej części obrazu. Według prezentacji Spitzera rozwiązania tego typu mogą w przyszłości tworzyć nawet 23 z 24 pikseli obrazu, pozostawiając GPU jedynie minimalną część pracy.
Podobnie działa technologia Multi Frame Generation (MFG). W jej przypadku sztuczna inteligencja generuje dodatkowe klatki animacji między tymi faktycznie renderowanymi przez kartę graficzną.
„Prawo Moore’a nie żyje”. AI przejmuje pałeczkę
Jednym z najmocniejszych stwierdzeń w prezentacji była deklaracja Spitzera, że „prawo Moore’a nie żyje”. Innymi słowy, klasyczne zwiększanie mocy układów poprzez miniaturyzację tranzystorów nie zapewni już spektakularnych wzrostów wydajności.
Dlatego NVIDIA inwestuje w rozwój algorytmów oraz sztucznej inteligencji. To właśnie one mają wypełnić lukę między obecnym poziomem grafiki a pełnym fotorealizmem w czasie rzeczywistym.
Jeśli ta wizja się spełni, gry komputerowe mogą w przyszłości wyglądać niemal identycznie jak produkcje filmowe. Co więcej, takie sceny będą renderowane na żywo, bez wielogodzinnego procesu renderowania znanego z branży filmowej.
Gry z własną inteligencją
Zmiany nie ograniczą się jednak tylko do grafiki. Spitzer przewiduje, że w niedalekiej przyszłości praktycznie każda gra będzie wyposażona w asystenta AI.
Takie systemy mogą pomagać graczom w nauce mechanik, analizować sytuację na mapie czy nawet prowadzić rozmowę głosową z użytkownikiem. Pierwsze przykłady już istnieją, między innymi eksperymentalni towarzysze AI w PUBG, którzy rozumieją mowę gracza i reagują na nią w czasie rzeczywistym.
Modele językowe używane w grach mają być przy tym zoptymalizowane do pracy lokalnej, co ograniczy opóźnienia i zapotrzebowanie na internet.
Podsumowanie
Prognozy przedstawione przez NVIDIA brzmią ambitnie, a momentami wręcz futurystycznie. Jednak historia GPU pokazuje, że postęp w grafice komputerowej potrafi przyspieszać szybciej, niż wielu się spodziewa.
Jeśli rozwój sztucznej inteligencji rzeczywiście będzie postępował w obecnym tempie, wizja fotorealistycznych gier renderowanych w czasie rzeczywistym może wcale nie być tak odległa. Czy gracze będą gotowi na świat, w którym granica między rzeczywistością a grafiką komputerową praktycznie zniknie?