Non è solo un salto di qualità grafica. La nuova tecnologia DLSS 5 usa l’intelligenza artificiale per riscrivere luce e materiali in tempo reale, avvicinando i videogiochi alla resa visiva del cinema. Le reazioni sui social: «Sembra un filtro di TikTok», «Gli artisti saranno furiosi»
C’è una scena, ormai familiare a chi gioca su Pc, in cui il confine tra realtà e simulazione sembra assottigliarsi fino quasi a scomparire. Un volto illuminato da una luce radente, una giacca che reagisce al vento con pieghe credibili. Negli ultimi anni, questo tipo di resa visiva è diventato sempre più comune. Ma con l’annuncio di DLSS 5, Nvidia prova a spostare ancora più avanti l’asticella: non solo rendere i giochi più fluidi o più nitidi, ma cambiarne direttamente l’aspetto, avvicinandoli alla grammatica visiva del cinema. È un passaggio che segna una discontinuità rispetto al passato e che, proprio per questo, va compreso con attenzione. «DLSS 5 è il “momento Gpt” della grafica: combina un rendering artigianale con l’IA generativa per offrire un salto spettacolare in termini di realismo visivo», ha affermato Jensen Huang, ceo di Nvidia, durante l’evento GTC, la conferenza annuale per gli sviluppatori legati all’azienda più capitalizzata al mondo, in corso a San José (Stati Uniti). Con «momento Gpt», Huang si riferisce a una novità capace di far deflagrare un interno settore e di dar vita a qualcosa di nuovo, come avvenuto nell’AI generativa con l’arrivo di ChatGpt.
Dalla velocità all’immagine
Per capire cosa sia davvero DLSS 5 bisogna fare un passo indietro. DLSS, acronimo di Deep Learning Super Sampling, nasce nel 2018 come tecnologia per aumentare le prestazioni. L’idea è semplice: il gioco viene renderizzato a una risoluzione più bassa, poi un modello di intelligenza artificiale ricostruisce i dettagli mancanti, producendo un’immagine simile a quella ad alta risoluzione ma con meno costi computazionali. Nel tempo il sistema si è ovviamente evoluto, prima migliorando la qualità dell’upscaling, poi introducendo la generazione di frame (le sequenze) intermedi per aumentare la fluidità. Con le versioni più recenti, l’intelligenza artificiale è arrivata a generare la maggior parte dei pixel che vediamo sullo schermo. DLSS 5 cambia prospettiva. Non si limita più a ricostruire un’immagine già definita dal motore grafico, ma interviene sul suo aspetto finale. Ciò significa modificare il modo in cui la luce e i materiali vengono percepiti. Ed è qui che si gioca la partita più interessante.
Che cosa significa «neural rendering»
Nvidia definisce DLSS 5 come un modello di «neural rendering» in tempo reale. Dietro questa espressione c’è un’idea precisa: usare reti neurali non solo per migliorare l’immagine, ma per partecipare direttamente alla sua creazione. Il funzionamento, semplificando, parte dai dati che il motore grafico già produce. Ogni frame contiene informazioni sui colori e sui movimenti degli oggetti. Questi dati vengono analizzati da un modello di intelligenza artificiale addestrato a riconoscere elementi complessi come pelle, capelli, tessuti o condizioni di illuminazione. A quel punto interviene la generazione vera e propria. Il sistema rielabora la scena introducendo effetti che normalmente richiederebbero molto più tempo di calcolo: la diffusione della luce sotto la pelle, le micro-variazioni delle superfici, le interazioni sottili tra materiali e illuminazione. Il risultato è un’immagine che resta ancorata alla scena originale, ma appare più credibile. Non si tratta quindi di inventare contenuti da zero, come fanno molti modelli generativi offline. Qui l’obiettivo è mantenere coerenza e stabilità, due requisiti fondamentali per un videogioco che deve reagire in tempo reale alle azioni del giocatore. Secondo Nvidia, il modello è progettato per essere deterministico e temporaneamente stabile. In altre parole, la stessa scena deve produrre lo stesso risultato, evitando artefatti o variazioni imprevedibili tra un frame e l’altro
La promessa è chiara: ridurre la distanza tra la grafica in tempo reale e quella dei film. È una distanza che esiste per ragioni tecniche. Un frame cinematografico può essere calcolato in minuti o ore, mentre un videogioco deve produrne uno ogni pochi millisecondi. Per anni, il settore ha provato a colmare questo gap aumentando la potenza di calcolo. Ray tracing e path tracing hanno rappresentato passi importanti, simulando in modo sempre più accurato il comportamento della luce. Ma c’è un limite strutturale. Non è possibile, almeno nel breve periodo, raggiungere il livello del cinema solo con la forza bruta. DLSS 5 introduce quindi un’altra strategia. Invece di calcolare tutto in modo fisicamente accurato, usa l’intelligenza artificiale per «interpretare» i dati disponibili e produrre un risultato visivamente più realistico. È un cambio di paradigma, perché si passa dalla simulazione pura alla sintesi guidata. In questo senso, DLSS 5 si posiziona come uno strato aggiuntivo, in quanto non sostituisce tecnologie come il path tracing, bensì le amplifica. Il motore grafico continua a determinare dove si trovano luci e ombre; il modello neurale interviene per migliorarne l’aspetto, come se avesse a disposizione più risorse di quante ne abbia realmente.
La differenza con le versioni precedenti
Il confronto con DLSS 4 e 4.5 aiuta a chiarire il salto. Le versioni precedenti erano orientate all’efficienza. Miglioravano la resa a parità di prestazioni o aumentavano il numero di frame generati. L’obiettivo era ottimizzare la pipeline grafica. DLSS 5, invece, punta a ridefinire il carattere dell’immagine, sfruttando l’intelligenza artificiale come una vera e propria componente creativa, anche se vincolata ai dati della scena. In un contesto del genere, uno degli aspetti cruciali diventa inevitabilmente il controllo. Se una tecnologia modifica l’aspetto visivo di un gioco, il rischio è che interferisca con le scelte artistiche degli sviluppatori. Nvidia prova a rispondere introducendo strumenti di regolazione. Intensità, color grading, maschere, tutti parametri che permettono di decidere dove e quanto applicare l’effetto. In teoria, questo dovrebbe garantire che ogni gioco mantenga la propria identità visiva. In pratica, molto dipenderà da come questi strumenti verranno utilizzati. Un titolo realistico potrebbe trarre vantaggio da un intervento più marcato; uno stilizzato rischia invece di perdere coerenza. L’integrazione, almeno sulla carta, non dovrebbe essere un ostacolo. DLSS 5 utilizza lo stesso framework già adottato per le versioni precedenti, e può essere implementato anche tramite plugin per motori diffusi come Unreal Engine 5. Questo facilita l’adozione, ma non garantisce risultati uniformi.
Le incognite tecniche
Se la direzione è chiara, molte domande restano aperte, a partire dall’hardware. Durante le prime dimostrazioni pubbliche, DLSS 5 è stato eseguito su due schede grafiche di fascia altissima, una dedicata al rendering e l’altra al modello neurale. Nvidia afferma che la versione finale funzionerà su una singola GPU, ma non ha ancora fornito specifiche definitive (se non la compatibilità con le schede della famiglia RTX50). Questo rende difficile valutare l’impatto reale in termini di consumo energetico, memoria e latenza. Sono elementi cruciali, perché determinano la diffusione della tecnologia. Un’altra area di incertezza riguarda i casi limite. Interfacce, testi, particelle, trasparenze: tutti elementi che storicamente mettono in difficoltà i sistemi basati su ricostruzione e predizione. Non è ancora chiaro come DLSS 5 si comporterà in queste situazioni.
Le reazioni negative degli appassionati
La questione più delicata, però, è di natura estetica. Quando un algoritmo interviene su luce e materiali, di fatto sta interpretando l’impatto visivo di un’immagine. Questo solleva un problema di fondo: fino a che punto si può modificare una scena senza tradirne l’intenzione originale? Molti utenti di Internet hanno ritenuto che questo nuovo rendering fosse a volte caricaturale, arrivando persino a paragonarlo all’«AI Slop» (ossia contenuti generati da AI di scarsa qualità, diffusi in modo massiccio). Le demo di Nvidia sui social hanno rapidamente ricevuto migliaia di commenti, in gran parte negativi: «Ora il tuo gioco sembra un’immagine generata dall’IA, fantastico!» o «Hanno trasformato il DLSS in un filtro di TikTok». «Gli artisti saranno, giustamente, furiosi», ha affermato su Bluesky Will Smith, conduttore di podcast sui videogiochi, secondo il quale il nuovo look di Grace, l’eroina di «Resident Evil Requiem», «modifica il tono e i temi» del gioco. In risposta, Nvidia ha pubblicato un commento sotto il suo video in cui spiega che «gli sviluppatori hanno il controllo artistico totale e dettagliato sugli effetti di DLSS 5, per garantire che l’estetica unica del loro gioco venga rispettata». «Si tratta di un’anteprima molto preliminare», ha precisato su X lo studio Bethesda, sviluppatore di «Starfield», ricordando che questa tecnologia rimarrà «completamente facoltativa» per i giocatori.
Nvidia insiste sul fatto che il sistema resta ancorato ai dati della scena e che gli sviluppatori possono controllarne l’impatto. Ma il confine tra ricostruzione e reinterpretazione è destinato a diventare sempre più sottile.
In ogni caso, l’azienda ha indicato l’autunno del 2026 come finestra di lancio. Alcuni titoli sono già stati citati come potenziali supporti, tra produzioni tripla A e giochi di grande richiamo. Tra questi spiccano certamente Assassin’s Creed Shadows, Hogwarts Legacy, Resident Evil Requiem, The Elder Scrolls IV: Oblivion Remastered. Va però ricordato che si tratta di indicazioni preliminari. Come spesso accade in questi casi, tempi e modalità di integrazione potrebbero cambiare. Le dimostrazioni viste finora sono basate su materiali selezionati e controllati. Per una valutazione completa sarà necessario attendere test indipendenti e un utilizzo su larga scala.
Per non perdere le ultime novità su tecnologia e innovazione
iscriviti alla newsletter di Login
17 marzo 2026
© RIPRODUZIONE RISERVATA