Ascolta la versione audio dell’articolo
I laptop da gaming, o meglio i portatili per giocare al computer, possono essere anche utili per «giocare» con l’intelligenza artificiale. Parliamo di macchine progettate per sostenere carichi grafici intensi, con GPU dedicate (GeForce RTX, Radeon RX), schermi ad alto refresh, potenza compressa in pochi centimetri di spessore e sistemi di raffreddamento che sembrano piccole turbine. Abbiamo scelto per la nostra prova Omen HP Gaming 17, una macchina che monta una buona scheda grafica come NVIDIA GeForce RTX 4060 8G, 32 GB di memoria RAM DDR5 a 5600 MHz e un disco rigido, l’SSD PCIe Gen4 da 1 TB. Con questa dotazione il sistema evita la compressione forzata, mantiene latenze controllate e offre una base utile anche per chi registra, monta o modella contenuti accanto al gioco. Quindi è un portatile da gamer molto vicino a una fascia alta ma non è (né pretende di essere) il top assoluto del momento. I prezzi di questa serie partono da 1299 euro; in particolare, il modello in prova si trova online dai 1350 euro in su.
Li abbiamo messi alla prova con LLM (modelli linguistici di grandi dimensioni) open weight che puoi scaricare e provare su un laptop. Parliamo di modelli di AI i cui pesi (parametri del modello) sono stati resi pubblici e quindi possono essere eseguiti, ispezionati, modificati e riaddestrati da chiunque. Li puoi usare senza cloud, senza API a consumo e senza problemi di privacy. Ci siamo quindi scaricati gpt-oss di OpenAI nella variante da 120B (la più grande) ma anche Gemma di Google, il modello più leggero da 7 miliardi di parametri, e il popolarissimo modello cinese Qwen. Ho usato anche ChatRTX di Nvidia, che serve per far girare modelli generativi in locale, direttamente sulla tua GPU.
La macchina si è comportata bene. I carichi di lavoro li senti come quando usi videogiochi particolarmente esigenti. La specifica tecnica da tenere d’occhio è una GPU all’altezza. Su un portatile da gaming tipico, una RTX 4060 o 4070 in versione mobile permette già di eseguire modelli da 7 miliardi di parametri con risposte fluide, senza ricorrere a trucchetti. Con un po’ più di memoria video, 12 o 16 gigabyte, entra in scena anche la fascia dei modelli da 13 o 20 miliardi. È un taglio che apre la strada ad assistenti più completi, chatbot che leggono documenti locali, sistemi che riassumono testi lunghi o rispondono con un minimo di ragionamento.
Accanto alla GPU, la RAM fa un lavoro silenzioso ma decisivo. I 32 gigabyte che oggi troviamo nei portatili difascia alta non sono un vezzo: sono il respiro della macchina. Servono per dare fiato ai modelli, per sostenere la quantizzazione, la tecnica che comprime il modello in modo da occupare meno memoria senza perdere troppo in qualità. E per tenere insieme tutto il resto: sistema operativo, applicazioni aperte, browser pieni di tab.
Poi c’è lo spazio: un SSD PCIe veloce è un requisito implicito. I modelli non sono piccoli. Anche quando compressi pesano gigabyte, e un disco lento sarebbe come infilare una pista da Formula 1 in mezzo al traffico della tangenziale nell’ora di punta. Ultimo punto: nella prova abbiamo usato Ollama, che è oggi uno dei software per gestire le AI in locale. ChatRTX, la proposta di Nvidia, aggiunge un livello di ottimizzazione per spremere ancora di più le GPU RTX. Quindi bene per l’AI, a patto però di usarla per sperimentare o per automatizzare alcune attività quotidiane. Se avete un’azienda e volete usare dati e infrastrutture dentro casa, servono macchine molto, molto più potenti.
