Sztuczna inteligencja w grach przez lata kojarzyła się z prostymi drzewami decyzyjnymi i przewidywalnymi wzorcami zachowań. NVIDIA od kilku lat próbuje to zmienić poprzez platformę ACE. Czytelnicy pamiętają zapewne nasze materiały o demonstracji Covert Protocol czy pierwszej implementacji w Mecha BREAK. Teraz jednak zieloni robią znaczący krok naprzód. Do ekosystemu ACE trafia otwartoźródłowy model językowy Qwen3-8B.
NVIDIA ACE z modelem Qwen3-8B przekształca postaci niezależne z prostych automatów w autonomiczne byty zdolne do rozumowania w czasie rzeczywistym, bez potrzeby łączenia z chmurą.
NVIDIA ACE od początku było ambitnym projektem mającym tchnąć życie w postaci niezależne. Teraz producent kart graficznych wprowadza do swojego zestawu narzędzi model Qwen3-8B, czyli ośmioparametrowy small language model (SLM) dostępny jako wtyczka do In-Game Inferencing SDK. Najważniejsza różnica między SLM a powszechnymi large language models? LLM-y potrafią robić niemal wszystko po trochu, ale SLM-y są precyzyjnie wytrenowane pod konkretne zadania, w tym przypadku prowadzenie dialogów w grach, rozumowanie w kontekście rozgrywki i reagowanie na nieskryptowane wydarzenia. Efekt? Znacznie niższe opóźnienia i możliwość działania lokalnie, bez konieczności wysyłania danych do chmury.
Największą rewolucją jest jednak nie sam model, ale sposób jego integracji. In-Game Inferencing SDK wykorzystuje technologię CUDA in Graphics, która synchronizuje obciążenie związane z AI i renderowaniem grafiki. To jak próba jednoczesnego gotowania obiadu i sprzątania kuchni. Bez dobrej koordynacji jeden proces blokuje drugi. NVIDIA rozwiązuje ten problem na poziomie sterownika, pozwalając GPU efektywnie żonglować między obliczeniami dla silnika gry a inferencją modelu językowego. Razem z Qwen3-8B pojawia się zaktualizowana wersja eksperymentalnego modelu Magpie TTS Flow odpowiedzialnego za syntezę mowy. Nowość? Obsługa języka hiszpańskiego i niemieckiego, co otwiera drogę do wielojęzycznych implementacji. Do tego dochodzą adaptery MultiLORA umożliwiające szybkie dostrajanie wag modelu bez przeprowadzania kosztownego fine-tuningu od zera.
Konkretne implementacje wyglądają obiecująco. KRAFTON wprowadza do PUBG system Co-Playable Characters (CPC), czyli towarzyszy AI komunikujących się językiem naturalnym i działających autonomicznie, zupełnie jak prawdziwi gracze. W symulatorze życia inZOI pojawią się Smart Zois, czyli postacie planujące swoje działania, podejmujące decyzje i rozmyślające nad ich konsekwencjami. Wemade Next w grze MIR5 idzie jeszcze dalej, prezentując pierwszego w historii AI-owego bossa uczącego się z poprzednich starć z graczami i adaptującego taktykę.
Dla branży to potencjalny punkt zwrotny. Dotychczas zaawansowane AI wymagało dostępu do chmury (wysokie opóźnienia, koszty infrastruktury) lub ograniczało się do prostych skryptów. SLM oferują złoty środek, czyli wystarczającą inteligencję przy zachowaniu lokalnego przetwarzania. Technologia nie jest jednak pozbawiona ograniczeń. Qwen3-8B to wciąż eksperyment wymagający kart z serii RTX, a jakość generowanych odpowiedzi nie dorównuje chmurowym gigantom. Pozostaje pytanie o gotowość deweloperów. Implementacja ACE wymaga przeprojektowania systemów dialogowych i odejścia od tradycyjnych drzew konwersacji.
Źródło: NVIDIA