{"id":254491,"date":"2025-12-10T16:04:12","date_gmt":"2025-12-10T16:04:12","guid":{"rendered":"https:\/\/www.europesays.com\/it\/254491\/"},"modified":"2025-12-10T16:04:12","modified_gmt":"2025-12-10T16:04:12","slug":"nvidia-apre-cuda-sara-facile-usarla-anche-sui-processori-della-concorrenza-autogol-o-scacco-matto","status":"publish","type":"post","link":"https:\/\/www.europesays.com\/it\/254491\/","title":{"rendered":"NVIDIA apre CUDA, sar\u00e0 facile usarla anche sui processori della concorrenza. Autogol o scacco matto?"},"content":{"rendered":"<p>Il dominio di NVIDIA nel campo dell\u2019IA non \u00e8 dovuto alla potenza dei suoi processori grafici, ma ad un fossato molto profondo che \u00e8 riuscita a scavare attorno al castello per resistere agli assalti della concorrenza. Un fossato <b>che si chiama CUDA<\/b>, lo stack software proprietario di NVIDIA che permette di programmare le GPU per compiti di calcolo generale, dall&#8217;intelligenza artificiale alle simulazioni scientifiche.<\/p>\n<p>&#13;<\/p>\n<p>Nei giorni scorsi NVIDIA <a href=\"https:\/\/developer.nvidia.com\/blog\/focus-on-your-algorithm-nvidia-cuda-tile-handles-the-hardware\" target=\"_blank\" rel=\"nofollow noopener\">ha lanciato CUDA 13.1<\/a>, versione che l\u2019azienda stessa definisce <b>il pi\u00f9 grande passo in avanti da quando CUDA \u00e8 stato lanciato nel 2006.<\/b><\/p>\n<p>&#13;<\/p>\n<p>NVIDIA ha introdotto con questa versione i CUDA Tile, un cambio di paradigma che abbandona l&#8217;approccio SIMT (Single Instruction Multiple Threads) tradizionale per passare a un modello basato su &#8220;tile&#8221;. Il cuore dell&#8217;aggiornamento \u00e8 Tile IR, <b>una macchina virtuale a basso livello che astrae la GPU come &#8220;processore di tile\u201d. <\/b><\/p>\n<p><img decoding=\"async\" src=\"https:\/\/www.europesays.com\/it\/wp-content\/uploads\/2025\/12\/Tile-model-png.webp.webp\" data-image=\"f62n0ao42ixi\"\/><\/p>\n<p>In pratica i programmatori non devono pi\u00f9 sporcarsi le mani con ottimizzazioni manuali come dimensioni dei tile, gestione della memoria condivisa e allocazione delle risorse di calcolo. Il compilatore si occupa di tutto, il codice diventa pi\u00f9 astratto, pi\u00f9 portabile, pi\u00f9 universale.<\/p>\n<p>&#13;<\/p>\n<p>Jim Keller, leggendario chip designer con un passato in AMD, Apple, Tesla e Intel e ora a capo della sua Tenstorrent, startup di acceleratori IA ha esultato davanti a CUDA 13.1, ipotizzando che questa mossa di NVIDIA potrebbe rappresentare una frana che riempie finalmente il fossato. Insomma, secondo Keller <b>quello di NVIDIA potrebbe essere un autogol che segna la fine del suo predominio in ambito IA<\/b>, un predominio segnato proprio dall\u2019esclusivit\u00e0 di CUDA.<\/p>\n<blockquote class=\"twitter-tweet\" data-media-max-width=\"560\">\n<p lang=\"en\" dir=\"ltr\">Curious. Did Nvidia end the Cuda &#8220;moat&#8221; ? If they move to tiles like most other hardware, the AI kernels will be easier to port.<a href=\"https:\/\/t.co\/ggeT0RUbfv\" rel=\"nofollow\">https:\/\/t.co\/ggeT0RUbfv<\/a><\/p>\n<p>\u2014 Jim Keller (@jimkxa) <a href=\"https:\/\/twitter.com\/jimkxa\/status\/1997732089480024498?ref_src=twsrc%5Etfw\" rel=\"nofollow noopener\" target=\"_blank\">December 7, 2025<\/a>\n<\/p><\/blockquote>\n<p> &#13;<br \/>\nLa tesi di Keller: portare codice CUDA sulle altre GPU ora \u00e8 semplicissimo&#13;<\/p>\n<p>Secondo Keller, questo approccio tile-based \u00e8 gi\u00e0 diffuso nell\u2019industria: framework come Triton di OpenAI lo usano da tempo. Di conseguenza, portare codice CUDA su Triton e da l\u00ec sulle GPU AMD diventerebbe molto pi\u00f9 semplice. Alzando il livello di astrazione, gli sviluppatori non scriverebbero pi\u00f9 codice specifico per l&#8217;architettura Nvidia, <b>scriverebbero codice che andrebbe bene su qualsiasi acceleratore AI<\/b>. Sulla carta, sembra un autogol clamoroso.<\/p>\n<p>&#13;<br \/>\n&#13;<\/p>\n<p>Se si guarda per\u00f2 la situazione con occhi pi\u00f9 cinici ci si rende conto che forse Nvidia sta facendo qualcosa di molto furbo: invece di combattere l&#8217;emulazione e il porting del codice CUDA, lo sta ufficializzando e controllando.<\/p>\n<p>&#13;<\/p>\n<p>Il messaggio implicito \u00e8: &#8220;Volete usare le GPU AMD o di altri? Fate pure, potete emulare CUDA. Ma il vostro codice sar\u00e0 comunque CUDA. I vostri sviluppatori impareranno comunque CUDA. Il vostro ecosistema dipender\u00e0 comunque da CUDA.\u201d <\/p>\n<p>\u00c8 la stessa logica che ha reso Windows quello che \u00e8 Windows: non importa se gira su hardware diverso, l&#8217;importante \u00e8 che tutti scrivano software per Windows. <b>CUDA deve diventare il sistema operativo dell\u2019IA.<\/b><\/p>\n<p>&#13;<\/p>\n<p>Se fino ad oggi CUDA era il fossato che NVIDIA usava per proteggere sul suo castello, ora il bene da proteggere \u00e8 diventato CUDA: da pi\u00f9 parti, soprattutto in Cina, c\u2019\u00e8 chi sta lavorando da anni per trovare una alternativa a CUDA che sia aperta a tutte le piattaforme. Non \u00e8 una operazione impossibile, librerie come ZLUDA hanno dimostrato che \u00e8 possibile emulare CUDA su Intel e AMD e ROCm di AMD potrebbe essere una valida alternativa, anche se dopo anni di sviluppo rimane indietro in termini di documentazione, compatibilit\u00e0 e supporto delle librerie. Molti sviluppatori lo descrivono come frustrante da usare.<\/p>\n<p>&#13;<\/p>\n<p>Se NVIDIA avesse continuato a blindare CUDA in modo aggressivo, avrebbe dato una ragione concreta ai sempre pi\u00f9 numerosi concorrenti che stanno disegnando acceleratori AI per sviluppare stack software alternativi: <b>se Google, Broadcom, AMD, Huawei e tutti gli altri produttori si unissero per una piattaforma comune e aperta<\/b>, per NVIDIA sarebbe un bel problema.<\/p>\n<p>&#13;<\/p>\n<p>Invece, con CUDA Tile, NVIDIA dice: &#8220;Non c&#8217;\u00e8 bisogno di alternative. CUDA funziona ovunque, anche emulato. Perch\u00e9 dovreste investire anni a costruire qualcosa di nuovo?\u201d ROCm di AMD, oneAPI di Intel e qualsiasi altro progetto perdono la loro ragion d&#8217;essere. Perch\u00e9 un&#8217;azienda dovrebbe investire miliardi in uno stack software alternativo quando CUDA \u00e8 diventato lo standard universale?<\/p>\n<p>&#13;<\/p>\n<p>C&#8217;\u00e8 poi una questione squisitamente tecnica: Tile IR \u00e8 ottimizzato per l\u2019hardware di Nvidia e nonostante il codice sar\u00e0 pi\u00f9 portabile <b>le prestazioni native rimarranno superiori sulle GPU NVIDIA<\/b>. Chi emula pagher\u00e0 sempre un prezzo in termini di efficienza. NVIDIA sembra dire: \u201dPotete usare il nostro software ovunque, ma funzioner\u00e0 sempre meglio da noi.&#8221;<\/p>\n<p>&#13;<\/p>\n<p>Jensen Huang ha costruito un impero su CUDA negli ultimi quindici anni. Questo aggiornamento non sembra essere veramente un&#8217;apertura al mercato, ma pi\u00f9 la mossa finale per consolidare il controllo. <\/p>\n<p>Rendendo CUDA pi\u00f9 accessibile e apparentemente pi\u00f9 aperto, NVIDIA elimina qualsiasi pressione competitiva sullo stack software.<\/p>\n<p> Forse non \u00e8 la fine del fossato, il fossato si \u00e8 solo allargato fino a includere l&#8217;intero territorio \u201cnemico\u201d.<\/p>\n<p><script async src=\"https:\/\/platform.twitter.com\/widgets.js\" charset=\"utf-8\"><\/script><\/p>\n","protected":false},"excerpt":{"rendered":"Il dominio di NVIDIA nel campo dell\u2019IA non \u00e8 dovuto alla potenza dei suoi processori grafici, ma ad&hellip;\n","protected":false},"author":3,"featured_media":254492,"comment_status":"","ping_status":"","sticky":false,"template":"","format":"standard","meta":{"footnotes":""},"categories":[173],"tags":[1537,90,89,195,198,199,197,200,201,194,196],"class_list":{"0":"post-254491","1":"post","2":"type-post","3":"status-publish","4":"format-standard","5":"has-post-thumbnail","7":"category-scienza-e-tecnologia","8":"tag-it","9":"tag-italia","10":"tag-italy","11":"tag-science","12":"tag-science-and-technology","13":"tag-scienceandtechnology","14":"tag-scienza","15":"tag-scienza-e-tecnologia","16":"tag-scienzaetecnologia","17":"tag-technology","18":"tag-tecnologia"},"share_on_mastodon":{"url":"https:\/\/pubeurope.com\/@it\/115696125249761918","error":""},"_links":{"self":[{"href":"https:\/\/www.europesays.com\/it\/wp-json\/wp\/v2\/posts\/254491","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/www.europesays.com\/it\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/www.europesays.com\/it\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/www.europesays.com\/it\/wp-json\/wp\/v2\/users\/3"}],"replies":[{"embeddable":true,"href":"https:\/\/www.europesays.com\/it\/wp-json\/wp\/v2\/comments?post=254491"}],"version-history":[{"count":0,"href":"https:\/\/www.europesays.com\/it\/wp-json\/wp\/v2\/posts\/254491\/revisions"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/www.europesays.com\/it\/wp-json\/wp\/v2\/media\/254492"}],"wp:attachment":[{"href":"https:\/\/www.europesays.com\/it\/wp-json\/wp\/v2\/media?parent=254491"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/www.europesays.com\/it\/wp-json\/wp\/v2\/categories?post=254491"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/www.europesays.com\/it\/wp-json\/wp\/v2\/tags?post=254491"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}