{"id":177190,"date":"2025-10-21T21:22:31","date_gmt":"2025-10-21T21:22:31","guid":{"rendered":"https:\/\/www.europesays.com\/it\/177190\/"},"modified":"2025-10-21T21:22:31","modified_gmt":"2025-10-21T21:22:31","slug":"recensione-macbook-pro-14-m5-salto-in-avanti-enorme-su-3d-e-ia","status":"publish","type":"post","link":"https:\/\/www.europesays.com\/it\/177190\/","title":{"rendered":"Recensione MacBook Pro 14\u201d M5. Salto in avanti enorme su 3D e IA"},"content":{"rendered":"<p>Il solito eccellente MacBook Pro, con un processore che va pi\u00f9 veloce. Molto pi\u00f9 veloce, soprattutto se si guarda a grafica e AI, tanto che in alcune situazioni arriva a superare come performance grafiche M3 Pro; non stiamo parlando del confronto con un processore di cinque anni fa, ma con il processore inserito in workstation \u201cpro\u201d che oggi decine di migliaia di professionisti usano con soddisfazione. Battuto, dopo pochi anni, da un modello &#8220;base&#8221; di chip che Apple ha inserito anche su un iPad.<\/p>\n<p>&#13;<\/p>\n<p>L&#8217;azienda, in fase di presentazione, ha deciso di confrontare le prestazioni del suo MacBook Pro M5 con quelle del MacBook Pro M1, lasciando intendere che il target ideale per questo nuovo portatile, che non ha certo un prezzo popolare &#8211; 1849 euro &#8211; <b>siano quelle persone che cinque anni fa hanno preso uno dei primi Apple Silicon e oggi lo iniziano a sentire un po\u2019 stretto. <\/b>Soprattutto per quegli 8 GB di RAM che erano la dotazione base dei Mac di un tempo, oggi per fortuna si parte da 16 GB.<\/p>\n<p>In realt\u00e0, lo vedremo a breve, questo MacBook Pro grazie solo ed esclusivamente ad M5 potrebbe interessare anche a chi ha un MacBook Pro relativamente recente, perch\u00e9 il miglioramento lato GPU e di conseguenza AI <b>\u00e8 talmente ampio che in alcuni casi specifici potrebbe anche essere sensato rivendere un M3, o un M4<\/b>, per passare al nuovo modello.<\/p>\n<p><img decoding=\"async\" src=\"https:\/\/www.europesays.com\/it\/wp-content\/uploads\/2025\/10\/623b64_macbook_7.JPG\" data-fnumber=\"39\/10\" data-isospeed=\"400\" data-exposure_time=\"1\/100\" data-image=\"th7qv43cze3z\"  \/>&#13;<br \/>\n&#13;<br \/>\nIl MacBook Pro \u00e8 quello che conosciamo, il disco no&#13;<br \/>\n&#13;<\/p>\n<p>Tutti quelli che hanno provato un MacBook Pro in questi anni concordano su una cosa: per rapporto qualit\u00e0 prezzo siamo davanti ad una macchina eccezionale. Non si tratta solo di prestazioni: la qualit\u00e0 della tastiera, il trackpad, i microfoni, l\u2019audio integrato e lo schermo mini\u2011LED da\u00a014,2\u201d che nella versione da noi provata \u00e8 addirittura quello con finitura nanotexture, quindi opaco, <b>sono ai vertici della categoria<\/b>. <\/p>\n<p>Nella foto sotto si pu\u00f2 vedere come il faretto dello studio sia praticamente invisibile riflesso dallo schermo nanotexture:\u00a0se lavorate in ambienti difficili investite per il pannello &#8220;matte&#8221;, ne vale la pena.<\/p>\n<p><img decoding=\"async\" src=\"https:\/\/www.europesays.com\/it\/wp-content\/uploads\/2025\/10\/b1d087_macbook_6.JPG\" data-fnumber=\"39\/10\" data-isospeed=\"400\" data-exposure_time=\"1\/80\" data-image=\"9ov9cum64s8f\"  \/><\/p>\n<p>A questo si aggiunge anche un livello costruttivo eccellente, con la scocca in alluminio (riciclato) che dopo tre anni di vita sembra ancora nuova, e tiene quindi alto il valore nel caso di rivendita come usato.<\/p>\n<p>&#13;<\/p>\n<p>In questi anni abbiamo pubblicato decine di prove di MacBook con Apple Silicon e questo 14\u201d adotta la stessa identica scocca usata da tutti i modelli Pro da 14\u201d recenti, non cambia niente. Vi se volete qualche dettaglio in pi\u00f9 vi rimandiamo alle prove precedenti.\u00a0<\/p>\n<p><img decoding=\"async\" src=\"https:\/\/www.europesays.com\/it\/wp-content\/uploads\/2025\/10\/21f40c_macbook_4.JPG\" data-fnumber=\"4\/1\" data-isospeed=\"400\" data-exposure_time=\"1\/60\" data-image=\"y4a2697rpwou\"  \/><\/p>\n<p>Se guardiamo alla dotazione di base non c\u2019\u00e8 bisogno probabilmente di cambiare nulla, fatta eccezione forse per lo schermo che ad oggi, per questioni puramente tecniche, <b>\u00e8 ancora un LCD retroilluminato a Mini-LED<\/b> quando su iPad \u00e8 gi\u00e0 un OLED con tecnologia tandem. <\/p>\n<p>Rispetto per\u00f2 all\u2019iPad, dove oggi Apple grazie al pannello sovrapposto riesce a garantire una luminosit\u00e0 di 1000 nits dissipando il calore con l\u2019intera struttura, nel caso del MacBook non c\u2019\u00e8 lo spessore necessario nella zona del display-cover per garantire l\u2019adeguata dissipazione ad un pannello che <b>deve toccare i 1600\u00a0nit di\u00a0picco con contenuti HDR. <\/b><\/p>\n<p>Nessun laptop Windows con pannello OLED negli ultimi anni si \u00e8 avvicinato minimamente alla dinamica che garantisce il mini-LED\u00a0Apple\u00a0e solo di recente, su prodotti come l&#8217;ottimo Lenovo Yoga Pro 9i 16 G10, si \u00e8 visto un tandem OLED con resa HDR superiore ai 1000 nits. Facile pensare quindi che sulle prossime generazioni di MacBook possa arrivare un pannello OLED, anche se Apple \u00e8 sempre pi\u00f9 cauta e lascia andare spesso avanti gli altri.<\/p>\n<p>&#13;<\/p>\n<p>Detto questo non vogliamo soffermarci troppo sul laptop, perch\u00e9 l\u2019unica differenza esistente tra questo modello con M5 e quello con M4, processore a parte, <b>\u00e8 lo storage<\/b>: il mercato oggi offre memorie pi\u00f9 veloci e Apple prende quello che offre il mercato: il disco del MacBook M5 ha quindi prestazioni superiori a quelle del disco di MacBook degli ultimi anni per una sorta di upgrade forzato.<\/p>\n<p>&#13;<\/p>\n<p>Come sappiamo la velocit\u00e0 dipende molto anche dalle diverse configurazioni dei banchi utilizzati: la versione che abbiamo in prova \u00e8 quella da 4 TB e ha fatto registrare i valori qui sotto, che confrontiamo il valore del modello precedente che per\u00f2 aveva 1 TB di storage.<\/p>\n<p>&#13;<br \/>\n<img decoding=\"async\" src=\"https:\/\/www.europesays.com\/it\/wp-content\/uploads\/2025\/10\/629af4_Disk_Speed_2x.png\" data-image=\"picture-0\"  \/>&#13;<\/p>\n<p>Effettivamente \u00e8 del doppio pi\u00f9 veloce come dice Apple, e questo aumento di velocit\u00e0 si riflette in diverse situazioni: se sul caricamento delle app si nota davvero poco, quando si utilizza l\u2019IA con Ollama (ne parliamo sotto)\u00a0la situazione cambia. <\/p>\n<p>Ollama a seconda delle richieste <b>deve trasferire il modello AI dall&#8217;hard disk alla memoria di sistema,<\/b> e quando un&#8217;app chiede un modello diverso deve liberare la memoria e caricare il nuovo. La velocit\u00e0 del disco incide sul tempo di caricamento.\u00a0<\/p>\n<p>Abbiamo scritto un breve benchmark che misura il tempo di caricamento dei modelli:\u00a0Gemma3 da 4 miliardi di parametri viene caricato in memoria in un secondo, per il modello open-weight di OpenAI, GPT-OSS da 20b servono 8 secondi. Da questo dipende anche la velocit\u00e0 di risposta del modello, il primo &#8220;token&#8221;.\u00a0<\/p>\n<p>Aumenta anche i trasferimento sui file grandi, come \u00e8 giusto che sia.<\/p>\n<p><img decoding=\"async\" src=\"https:\/\/www.europesays.com\/it\/wp-content\/uploads\/2025\/10\/153343_Screenshot_2025-10-18_alle_21.50.31.jpg\" data-image=\"picture-0\"  \/>&#13;<br \/>\n&#13;<br \/>\nCPU, tutto come previsto: classico salto generazionale&#13;<br \/>\n&#13;<\/p>\n<p>Il processore M5 sar\u00e0 probabilmente l\u2019ultimo Apple Silicon prodotto a 3 nanometri. Come A19 Pro, che condivide con il chip per laptop e workstation parte dei blocchi funzionali, anche M5 \u00e8 costruito utilizzando il processo produttivo di TSMC a 3 nanometri di terza generazione, quello pi\u00f9 evoluto che il chipmaker chiama N3P. Il prossimo passo saranno i 2 nanometri, che debutteranno, curioso caso, con A20 sul prossimo iPhone (20 \u00c5 &#8211; \u00e5ngstr\u00f6m &#8211; equivale a 2 nm).<\/p>\n<p>&#13;<\/p>\n<p>N3P, rispetto a N3E, garantisce circa il 5% in pi\u00f9 di prestazioni, e se guardiamo alla sola CPU del processore M5, i classici due cluster formati da 4 core ad alte prestazioni e da 6 core ad alta efficienza, quello che vediamo \u00e8 il classico incremento dovuto in parte al processo produttivo e in parte all\u2019aumento di clock. A questo si aggiunge per\u00f2 un netto boost su alcune operazioni in virgola mobile, lo abbiamo visto nelle prove dell&#8217;iPad Pro che usa lo stesso processore.\u00a0<\/p>\n<p>Tutto questo si riassume in un incremento reale del <b>15% circa sia nelle prestazioni single core che nelle prestazioni multicore<\/b>. Apple non ha spinto di pi\u00f9 perch\u00e9 non era necessario, doveva usare i transistor per altro: con il punteggio di 4321 in Geekbench 6 single core <b>ci troviamo davanti al core pi\u00f9 veloce esistente oggi sul mercato consumer<\/b>, pi\u00f9 veloce anche dell\u2019imminente Snapdragon X2 Elite con core Oryon 3. <\/p>\n<p>Il tutto con un impatto sul consumo che c&#8217;\u00e8, ma \u00e8 minimo.<\/p>\n<p>&#13;<br \/>\n&#13;<\/p>\n<p>Nei grafici sotto si vede in che modo, nel corso degli anni, Apple sia riuscita ad incrementare in modo costante la velocit\u00e0 della sua CPU con livelli di incremento che altre architetture non sono riuscite a reggere.<\/p>\n<p>&#13;<br \/>\n&#13;<\/p>\n<p><img decoding=\"async\" src=\"https:\/\/www.europesays.com\/it\/wp-content\/uploads\/2025\/10\/dabd1f_Geekbench_6.3_-_Single_Core_2x__1_.png\" data-fnumber=\"null\" data-isospeed=\"null\" data-exposure_time=\"null\" data-image=\"b8h8n3efqze5\"  \/><br \/>\n<img decoding=\"async\" src=\"https:\/\/www.europesays.com\/it\/wp-content\/uploads\/2025\/10\/efefcc_Geekbench_6.3_-_Single_Core_2x__2_.png\" data-image=\"picture-0\"  \/><br \/>\n&#13;<br \/>\n&#13;<\/p>\n<p>C\u2019\u00e8 ovviamente una differenza netta quando si tratta di pi\u00f9 core che lavorano in parallelo, situazione questa che riflette meglio la resa con molte applicazioni \u201cpro\u201d. Con 18102 punti, nonostante abbia solo 10 core, <b>la versione base di M5 va pi\u00f9 veloce di M3 Pro e di M2 Max.<\/b><\/p>\n<p>&#13;<br \/>\n&#13;<br \/>\n&#13;<br \/>\n&#13;<\/p>\n<p>Come si traduce questo all\u2019atto pratico? <\/p>\n<p>Il caso pi\u00f9 comune di utilizzo della CPU\u00a0con tutti i core al lavoro \u00e8 la compilazione di un progetto: abbiamo usato <a href=\"https:\/\/github.com\/devMEremenko\/XcodeBenchmark\" target=\"_blank\" rel=\"nofollow noopener\">il noto benchmark per XCode<\/a>,\u00a0che\u00a0scarica e compila un progetto Xcode pesante e complesso e\u00a0misura quanto tempo impiega il Mac a completare la compilazione.\u00a0<\/p>\n<p>&#13;<br \/>\n&#13;<br \/>\n<img decoding=\"async\" src=\"https:\/\/www.europesays.com\/it\/wp-content\/uploads\/2025\/10\/73badc_macbook_ok_2.JPG\" data-fnumber=\"4\/1\" data-isospeed=\"400\" data-exposure_time=\"1\/400\"  \/><\/p>\n<p> M5 come risultato spunta 144 secondi, e non sappiamo come si pone questo valore con gli altri risultati presenti a database perch\u00e9\u00a0il benchmark \u00e8 stato appena aggiornato per supportare la versione pi\u00f9 recente di XCode, bisogna aspettare che altre persone lo eseguano su macchine meno recenti.\u00a0<\/p>\n<p>Abbiamo fatto girare il benchmark su un MacBook Pro M3, quindi una macchina pi\u00f9 vecchia di due generazioni, e nelle stesse identiche condizioni abbiamo ottenuto 210 secondi, quindi un risparmio del 25% di tempo. <b>Ricordiamo che M3 ha due core ad alta efficienza in meno, per 8 core totali.\u00a0<\/b><\/p>\n<p>&#13;<br \/>\n<img decoding=\"async\" src=\"https:\/\/www.europesays.com\/it\/wp-content\/uploads\/2025\/10\/109494_Screenshot_2025-10-18_alle_13.48.23.png\" data-image=\"picture-0\"  \/>&#13;<\/p>\n<p>Per quanto riguarda i consumi ecco la stima data da Powermetric su un ciclo di CPU al 100% per entrambi i core e con il laptop a batteria. Ricordiamo che si tratta di una stima, non \u00e8 un valore precisissimo anche se abbiamo verificato su presa ed \u00e8 molto simile.\u00a0<\/p>\n<p>Come si pu\u00f2 vedere M5 ha una frequenza di clock pi\u00f9 alta, e ha anche una sorta di &#8220;turbo&#8221; iniziale con il clock che sale a 4.4 GHz per poi scendere. Il consumo iniziale, durante il boost, tocca i 30 Watt ma dopo pochi secondi scende e si assesta sui 27 Watt, questo per una riduzione della frequenza di clock che si stabilizza sui 4.1 GHz. <\/p>\n<p>M4, dai grafici, aveva un consumo leggermente pi\u00f9 basso ma si tratta come sempre di un consumo a pieno carico, quindi una situazione particolare: <b>nell&#8217;uso normale non c&#8217;\u00e8 alcuna percezione di diminuzione di autonomia.<\/b><\/p>\n<p>&#13;<\/p>\n<p><img decoding=\"async\" src=\"https:\/\/www.europesays.com\/it\/wp-content\/uploads\/2025\/10\/17d320_M5_Multicore_2x.png\" data-image=\"picture-0\"  \/><br \/>\n<img decoding=\"async\" src=\"https:\/\/www.europesays.com\/it\/wp-content\/uploads\/2025\/10\/827bfc_M4_Multicore_2x.png\" data-image=\"picture-0\"  \/><br \/>\n&#13;<br \/>\n&#13;<br \/>\n&#13;<br \/>\nGPU, l\u2019incremento di prestazioni impressiona. Va quanto M2 Ultra&#13;<br \/>\n&#13;<\/p>\n<p>M5 sar\u00e0 ricordato per essere il processore Apple Silicon con il pi\u00f9 grande salto generazionale di sempre per quanto riguarda la GPU, ben pi\u00f9 alto di quello che c\u2019\u00e8 stato da M2 a M3 quando Apple ha introdotto il mesh shading e il ray tracing. <\/p>\n<p>I core GPU di M5 sono gli stessi usati anche su A19 Pro, e avevamo gi\u00e0 visto cosa erano capaci di fare: Apple ha ridisegnato interamente il core grafico e non ha solo rivisto tutte le pipeline di rasterizzazione, ma <b>ha anche aggiornato i core raytracing. <\/b><\/p>\n<p>Non solo: dentro ognuno dei 10 core grafici \u00e8 presente un acceleratore neurale per calcoli matriciali che gestisce alcune operazioni sui dati direttamente nell&#8217;unit\u00e0 di calcolo grafico, senza la necessit\u00e0 di spostare questi dati dalla memoria (per passare dal neural engine)\u00a0e quindi senza latenza. <\/p>\n<p>Serve per l\u2019IA generativa, ma serve anche per Metal 4 che utilizza l\u2019IA per l\u2019upscaling dei fotogrammi, per il denoising del ray tracing e per la generazione dei fotogrammi. <\/p>\n<p>Al momento non ci sono giochi che sfruttano questa possibilit\u00e0, e il primo dovrebbe essere Cyberpunk 2077 <b>con una patch attesa tra qualche settimane<\/b>. <\/p>\n<p><img decoding=\"async\" src=\"https:\/\/www.europesays.com\/it\/wp-content\/uploads\/2025\/10\/afa246_macbook_5.JPG\" data-fnumber=\"39\/10\" data-isospeed=\"400\" data-exposure_time=\"1\/125\" data-image=\"9wl3oah59phx\"  \/>Cyberpunk gira benissimo su MacBook Pro 14 senza raytracing e bene con raytracing<\/p>\n<p>Come vedremo pi\u00f9 sotto, quando parleremo di IA, la maggior parte dei modelli LLM\u00a0gi\u00e0 beneficia dei nuovi componenti di calcolo matriciale, e rispetto a M4 le prestazioni sono superiori di un ordine di grandezza che supera anche i 3x.\u00a0<\/p>\n<p>&#13;<br \/>\n&#13;<\/p>\n<p>Ci vogliamo per\u00f2 concentrare sulla pura grafica, dove Apple promette un incremento in alcune situazioni superiore al 70% rispetto agli scorsi anni.<\/p>\n<p> Partendo con il classico benchmark sintetico, che usiamo da sempre per valutare la resa delle GPU, possiamo vedere nel grafico quanto M5 spinga molto di pi\u00f9 in tutte e tre le situazioni, <b>ma come sia proprio il ray tracing l&#8217;ambito dove c&#8217;\u00e8 l&#8217;incremento pi\u00f9 grande, superiore al 70% dichiarato.<\/b><\/p>\n<p>&#13;<br \/>\n&#13;<br \/>\n&#13;<br \/>\n&#13;<br \/>\n<img decoding=\"async\" src=\"https:\/\/www.europesays.com\/it\/wp-content\/uploads\/2025\/10\/efce45_Gravity_Mark_2x.png\" data-fnumber=\"null\" data-isospeed=\"null\" data-exposure_time=\"null\" data-image=\"m972qk4qmydb\"  \/>&#13;<\/p>\n<p>Ci piace per\u00f2 guardare pi\u00f9 al lato pratico, e siamo partiti con uno degli strumenti pi\u00f9 usati in ambito 3D da studenti e professionisti in quanto open source, ovvero Blender.\u00a0Trattandosi di una workstation pro \u201centry\u201d visto che i MacBook con M5 Pro e M5 Max arriveranno pi\u00f9 avanti, abbiamo pensato che Blender<b> sia probabilmente il software pi\u00f9 adeguato visti anche i costi di licenze delle altre soluzioni.<\/b><\/p>\n<p>&#13;<br \/>\n&#13;<\/p>\n<p>Il benchmark di Blender prevede il rendering di tre scene molto famose, Classroom, Monster e Junkshop, e abbiamo eseguito per diverse volte il benchmark mediando i diversi risultati, comunque molto simili tra un ciclo e l&#8217;altro. <\/p>\n<p>Questa \u00e8 la media ottenuta in samples al minuto.<\/p>\n<p>&#13;<br \/>\n&#13;<\/p>\n<ul>\n<li>Classroom, con 478 samples\/minuto, ottiene un valore molto vicino a quello dell&#8217;Apple M3 Pro con GPU a 18 cores che si ferma a\u00a0476 samples\/minuto.<\/li>\n<\/ul>\n<ul>\n<li>Junkshop, con 447 samples\/minuto, ottiene un risultato pari a\u00a0Apple M1 Ultra che tocca i 453, ma ha ben 64 core grafici. Un core grafico di M5 va quanto 6 core grafici di M1.<\/li>\n<\/ul>\n<ul>\n<li>Monster, con 835 samples\/minuto, \u00e8 in linea con l\u2019M3 Pro (GPU da 18 core) che fa segnare 830 samples\/minuto.<\/li>\n<\/ul>\n<p>&#13;<\/p>\n<p>Qui il grafico con i valori globali aggregati, dove M5 si posiziona vicino a M3 Pro.<\/p>\n<p><img decoding=\"async\" src=\"https:\/\/www.europesays.com\/it\/wp-content\/uploads\/2025\/10\/ce132b_Copy_of_Copy_of_Blender_Monster_2x__1_.png\" data-fnumber=\"null\" data-isospeed=\"null\" data-exposure_time=\"null\" data-image=\"ee8d1249i73q\"  \/>&#13;<\/p>\n<p>NVIDIA sulla grafica gioca ancora un\u2019altra partita, ma in una sola generazione Apple ha colmato un gap enorme e lo ha fatto con il suo SoC di base con grafica integrata: <b>Blender conferma un incremento della velocit\u00e0 del 70% tra M4 e M5.\u00a0<\/b><\/p>\n<p><img decoding=\"async\" src=\"https:\/\/www.europesays.com\/it\/wp-content\/uploads\/2025\/10\/6f1580_macbook_ok_1.JPG\" data-fnumber=\"39\/10\" data-isospeed=\"400\" data-exposure_time=\"1\/80\"  \/>&#13;<br \/>\n&#13;<\/p>\n<p>Se cambiamo il motore di rendering, passando a Redshift di Maxon, i risultati restano eccellenti.\u00a0Per renderizzare la classica scena di Vultures in ray tracing ci abbiamo messo 400 secondi. M4 Pro, per la stessa scena, ha richiesto 300 secondi, M3 Pro \u00e8 allineato con 412 secondi mentre M4 vuole quasi 600 secondi, 10 minuti.<\/p>\n<p>&#13;<br \/>\n<img decoding=\"async\" src=\"https:\/\/www.europesays.com\/it\/wp-content\/uploads\/2025\/10\/068963_Redshift_Ray_Tracing_2x.png\" data-fnumber=\"null\" data-isospeed=\"null\" data-exposure_time=\"null\" data-image=\"bf8ocutlbb82\"  \/>&#13;<\/p>\n<p>M5 va quasi il doppio pi\u00f9 veloce rispetto ad M4 ed \u00e8 allineato come performance a M3 Pro, che ha 18 core GPU comunque dotati di accelerazione ray tracing. <b>Un core grafico di M5 vale quasi due core grafici di M3.\u00a0<\/b><\/p>\n<p>Situazione simile anche su OctaneBench, dove con 116 punti si posiziona vicino a M3 Pro, anche se qui \u00e8 &#8220;solo&#8221; del 25% pi\u00f9 veloce rispetto a M4.<\/p>\n<p> Ogni motore di rendering sfrutta il processore in modo diverso ed \u00e8 anche ottimizzato diversamente, e Octane \u00e8 tra tutti i motori quello che sfrutta meno le primitive di Metal. <\/p>\n<p>Octane &#13;<br \/>\nnon \u00e8 scritto in Metal nativamente, ma usa un livello di compatibilit\u00e0 (\u201cRTON\u201d) che converte shader CUDA in Metal al volo, almeno fino alle release software di qualche anno fa. Non sappiamo se ora la cosa sia cambiata, ma \u00e8 anche l&#8217;unico software grafico dove il guadagno \u00e8 ridotto anche se si tratta comunque di un incremento notevole. <\/p>\n<p>&#13;<br \/>\n&#13;<br \/>\n&#13;<br \/>\n<img decoding=\"async\" src=\"https:\/\/www.europesays.com\/it\/wp-content\/uploads\/2025\/10\/d7a5e0_Octane_-_Ray_Tracing.png\" data-fnumber=\"null\" data-isospeed=\"null\" data-exposure_time=\"null\" data-image=\"2t0sdedkl2kf\"  \/>Cyberpunk 2077, un assaggio di ray tracing in attesa di Metal 4&#13;<\/p>\n<p>Per la serie \u201cchi ha il pane non ha i denti e chi ha i denti non ha il pane\u201d abbiamo voluto vedere come si comporta M5 con i giochi, pi\u00f9 che altro con Cyberpunk 2077 che \u00e8 l&#8217;unico gioco disponibile in grado di sfruttare e pieno le potenzialit\u00e0 del nuovo processore grafico. <\/p>\n<p>Non esiste ancora un profilo \u201cPer il Mio Mac\u201d destinato a M5, ma soprattutto non ci sono ancora le migliorie che dovrebbero a breve per supportare le nuove funzioni di Metal 4. Nonostante questo grazie ai\u00a0nuovi core ray tracing e grazie all\u2019incremento di potenza di calcolo dei core riusciamo a far girare Cyberpunk 2077 con il livello di dettaglio indicato nella schermata sotto, e<b> con ray tracing attivo, a circa 30 fps.<\/b>\u00a0Questo con una resa decisamente d\u2019impatto se consideriamo sia l\u2019HDR che il ray tracing. Togliendo il ray tracing si superano i 55 fps.<\/p>\n<p><img decoding=\"async\" src=\"https:\/\/www.europesays.com\/it\/wp-content\/uploads\/2025\/10\/01011e_Screenshot_2025-10-19_alle_10.12.31.jpg\" data-image=\"picture-0\"  \/><\/p>\n<p>A breve, quando arriver\u00e0 il frame generation, sar\u00e0 possibile toccare i 50 fotogrammi al secondo stabili con ray tracing, qualit\u00e0 alta, risoluzione full HD con una GPU integrata. <\/p>\n<p>Apple con M5 \u00e8 arrivata al livello di una 4070 laptop, con un consumo per\u00f2 molto pi\u00f9 basso: non c\u2019\u00e8 processore con grafica integrata che riesca a dare le stesse prestazioni con supporto ray tracing e path tracing (questo solo con Metal 4).<\/p>\n<p> L\u2019unica speranza, per un po&#8217; di competizione nel mondo Windows sul segmento &#8220;integrato&#8221;, \u00e8 la discesa in campo di NVIDIA con il suo processore ARM\u00a0basato su architettura Blackwell. <\/p>\n<p>I nuovi SoC Qualcomm previsti per inizio 2026 vanno fortissimo lato CPU e NPU, ma la GPU Adreno \u00e8 ancora troppo indietro e non supporta nemmeno ray tracing hardware.\u00a0<\/p>\n<p>&#13;<\/p>\n<p><img decoding=\"async\" src=\"https:\/\/www.europesays.com\/it\/wp-content\/uploads\/2025\/10\/67d838_Screenshot_2025-10-19_alle_10.14.14.jpg\" data-fnumber=\"null\" data-isospeed=\"null\" data-exposure_time=\"null\" data-image=\"9flfa83qdcxr\"  \/><br \/>\n<img decoding=\"async\" src=\"https:\/\/www.europesays.com\/it\/wp-content\/uploads\/2025\/10\/f6ad44_Screenshot_2025-10-19_alle_10.14.34.jpg\" data-fnumber=\"null\" data-isospeed=\"null\" data-exposure_time=\"null\" data-image=\"026jce68scxb\"  \/><br \/>\n&#13;<\/p>\n<p>Uno sguardo infine ai consumi della GPU: in questo caso il grafico generato usando i valori di stima del sistema operativo sono errati, sembra che la GPU consumi &#8220;solo&#8221; 10 Watt. Non \u00e8 cos\u00ec, perch\u00e9\u00a0consuma dai 30 ai 40 Watt quando spinge al 100%. Siamo comunque davanti ad un consumo davvero basso.<\/p>\n<p><img decoding=\"async\" src=\"https:\/\/www.europesays.com\/it\/wp-content\/uploads\/2025\/10\/815d40_Copy_of_M5_Blender_-_power_consumption_2x.png\" data-image=\"picture-0\"  \/>&#13;<br \/>\n&#13;<br \/>\nUn processore pensato per l\u2019IA generativa&#13;<br \/>\n&#13;<\/p>\n<p>Quando Apple ha introdotto M5 ha parlato esplicitamente di \u201csalto in avanti netto per l\u2019IA\u201d, e i dati che abbiamo raccolto confermano tutto questo. I nuovi moduli per il calcolo matriciale inseriti nella GPU, il nuovo Neural Engine e l\u2019utilizzo di memorie pi\u00f9 veloci hanno permesso di ottenere un risultato in termini di prestazioni che <b>non ha eguali nell\u2019ambito dei laptop con GPU integrata. <\/b><\/p>\n<p>Per quanto riguarda la memoria il bus resta sempre a 192 bit, ma l\u2019adozione di memorie LPDDR5X pi\u00f9 veloci, attorno a 9600 MT\/s, <b>ha permesso di portare l\u2019ampiezza della banda per la memoria a 153 GB\/s<\/b>, il 30% circa in pi\u00f9 rispetto ai 120 GB\/s di M4 che usava moduli LPDDR5X 7500 MT\/s.<\/p>\n<p>&#13;<br \/>\n&#13;<\/p>\n<p>Il salto in termini di prestazioni lo si vede chiaramente nel confronto con i precedenti Apple Silicon in un benchmark sintetico (Geekbench AI), e nel grafico abbiamo inserito anche alcuni processori di classe diversa per dare un\u2019idea di quanto siano migliorate le prestazioni.<\/p>\n<p>&#13;<br \/>\n<img decoding=\"async\" src=\"https:\/\/www.europesays.com\/it\/wp-content\/uploads\/2025\/10\/63617a_Geekbench_AI.png\" data-image=\"picture-0\"  \/>&#13;<\/p>\n<p>Come si pu\u00f2 vedere nell&#8217;immagine sopra mentre sulle operazioni\u00a0FP32 (single precision)\u00a0usa ancora la pipeline classica di calcolo vettoriale, ma guadagna comunque il 40% rispetto ad M4, in FP16 usa le nuove half-precision pipelines della GPU e ha un\u00a0throughput effettivo quasi raddoppiato. <\/p>\n<p>Trattandosi di un computer che deve fare soprattutto inference, il valore che pi\u00f9 interessa \u00e8 quello in\u00a0INT8:\u00a0quasi tutti i modelli distribuiti (es. mistral:7b, llama3:8b, phi3) sono in versioni quantizzate e qui M5\u00a0sfrutta le math units introdotte con la nuova generazione di GPU. La velocit\u00e0 guadagnata \u00e8 impressionante, <b>pi\u00f9 del doppio rispetto ad M4 e vicino a M4 Max.\u00a0<\/b>\ufeffRicordiamo tuttavia che la memoria, e la banda, sono un collo di bottiglia per i modelli IA pertanto nonostante il benchmark mostri M4 Max e M5 vicini, M4 Max \u00e8 un processore nettamente pi\u00f9 veloce in ambito IA proprio per la banda di memoria, il bus e la quantit\u00e0 di memoria.<b\/><\/p>\n<p>A beneficiare dei nuovi acceleratori nella GPU\u00a0\u00e8 soprattutto l\u2019AI generativa, e abbiamo provato i due volti dell\u2019IA generativa, da una parte Drawthings utilizzando Flux come modello, quindi non certo un modello leggero, e dall\u2019altra OllamaBench, per valutare i tokens\/secondo generati con alcuni modelli decisamente pesanti, tra i quali GPT-OSS da 20 miliardi di parametri e DeepSeek R1 da 14 miliardi di parametri.<\/p>\n<p>Con DrawThings, a parit\u00e0 di &#8220;prompt&#8221;, rispetto a M3 il nuovo processore ci mette meno della met\u00e0 del tempo per generare una immagine.\u00a0<\/p>\n<p>Se guardiamo invece ai benchmark di diversi modelli open con Ollama\u00a0M5, con 32 GB di RAM e una larghezza di banda di 153 GB\/s, <b>si posiziona come velocit\u00e0 di token generati al secondo allo stesso livello di M3 Pro<\/b>, che ha un processore con 16 core GPU e ben 300 GB\/sec di banda per le memorie, il bus \u00e8 a 256 bit. <\/p>\n<p><img decoding=\"async\" src=\"https:\/\/www.europesays.com\/it\/wp-content\/uploads\/2025\/10\/5e2413_Ollama_Benchmark_2x.png\" data-image=\"picture-0\"  \/>&#13;<br \/>\n&#13;<\/p>\n<p>A questo punto vi chiederete cosa sia questo Ollama, e c&#8217;\u00e8 un motivo se lo abbiamo inserito: in attesa di Apple Intelligence,\u00a0<b>Ollama \u00e8 l&#8217;elemento che rende un MacBook Pro un vero AI computer.<\/b><\/p>\n<p>&#13;<br \/>\n&#13;<br \/>\nCome l\u2019IA rivoluziona l\u2019esperienza di uso di un MacBook&#13;<br \/>\n&#13;<\/p>\n<p>Come abbiamo visto dai benchmark sopra, il nuovo processore M5 \u00e8 drasticamente pi\u00f9 veloce di ogni altro processore Apple usato nella stessa categoria di prodotto, e questo in un ordine di grandezza che pu\u00f2 arrivare anche al 200% o al 300% di incremento di velocit\u00e0. Questo grazie soprattutto ai nuovi neural core che Apple ha inserito in ogni singolo core GPU: se la NPU si occupa di gestire piccoli modelli legali al riconoscimento vocale e visivo, all\u2019estrazione di testi o alla classificazione di immagini, quando si parla di modelli LLM e di IA generativa l<b>a GPU \u00e8 l\u2019elemento sul quale fare affidamento<\/b>. NVIDIA ci ha costruito una fortuna attorno alle sue GPU.<\/p>\n<p>&#13;<br \/>\n&#13;<\/p>\n<p>Oggi, dopo lo scivolone di Apple Intelligence e di Siri, l\u2019opinione pubblica <b>\u00e8 convinta che Apple sia indietro sull\u2019IA.<\/b>\u00a0Se guardiamo ai modelli probabilmente \u00e8 cos\u00ec, i modelli di OpenAI, Google e Anthropic sono pi\u00f9 avanzati di quelli Foundation di Apple ma in realt\u00e0, grazie agli sviluppatori e al lavoro fatto da questi ultimi, <b>Apple oggi pu\u00f2 gi\u00e0 mettere nelle mani di un utente un computer che si appoggia all\u2019IA locale per migliorare e ottimizzare i flussi di lavoro in modo flessibili.<\/b> Tanti produttori ci stanno provando in ambito Windows, vedi Lenovo, ma si trovano davanti ad un terreno poco fertile e devono spesso sviluppare soluzioni da soli, poco integrate e spesso limitate.<\/p>\n<p>&#13;<br \/>\n&#13;<\/p>\n<p>Con l\u2019uscita di macOS Tahoe <b>Apple ha poi permesso agli sviluppatori di accedere ai suoi modelli Foundation<\/b>: i modelli allenati dall&#8217;azienda per Apple Intelligence possono essere usati anche dalle app per potenziare le loro funzionalit\u00e0 senza usare servizi cloud.<\/p>\n<p>Le scorse settimane sono uscite le prime app che si appoggiano a questi modelli, e per chi volesse approfondire abbiamo parlato della novit\u00e0 in questo articolo, dove mettiamo anche in evidenza le prime app che usano modelli Foundation.<\/p>\n<p>&#13;<\/p>\n<p>I primi piccoli passi di Apple Intelligence nell\u2019App Store. Ecco le prime app che usano l\u2019IA locale<\/p>\n<p class=\"read-more\"><a href=\"https:\/\/www.dday.it\/redazione\/54666\/i-primi-piccoli-passi-di-apple-intelligence-nellapp-store-ecco-le-prime-app-che-usano-lia-locale\" target=\"_blank\" rel=\"nofollow noopener\">Vai all&#8217;approfondimento<\/a><\/p>\n<p>&#13;<\/p>\n<p>Sempre con il rilascio di macOS Tahoe Apple ha aggiunto la possibilit\u00e0, per gli utenti, di utilizzare questi modelli all\u2019interno dei Comandi Rapidi, creando flussi di lavoro che fino ad oggi non era possibile gestire in locale: si pu\u00f2 chiedere di elaborare un testo, di riassumerlo o di tradurlo e di usare il risultato della manipolazione come elemento alla base per una azione eseguita da un&#8217;altra app. <\/p>\n<p>Ad oggi ci sono ancora tanti limiti in questo approccio, come si pu\u00f2 leggere dall&#8217;articolo sotto, ma con il tempo la situazione sta migliorando e sempre pi\u00f9 app espongono le azioni per facilitare la loro automazione.<\/p>\n<p>&#13;<\/p>\n<p>Comandi \u00e8 l\u2019app per iPhone e Mac che tutti dovrebbero imparare ad usare. La guida completa<\/p>\n<p class=\"read-more\"><a href=\"https:\/\/www.dday.it\/redazione\/53836\/comandi-e-lapp-per-iphone-e-mac-che-tutti-dovrebbero-imparare-ad-usare-la-guida-completa\" target=\"_blank\" rel=\"nofollow noopener\">Vai all&#8217;approfondimento<\/a><\/p>\n<p>&#13;<br \/>\nIn attesa di Siri con Apple Intelligence Ollama \u00e8 la vera IA su Mac<\/p>\n<p>In questa prova vogliamo per\u00f2 parlarvi di altro, introducendo Ollama.<\/p>\n<p> Ollama, che si pu\u00f2 scaricare <a href=\"https:\/\/ollama.com\/\" target=\"_blank\" rel=\"nofollow noopener\">da questo sito<\/a>,\u00a0una volta installato si manifesta come un piccolo \u201cLama\u201d che appare nella barra di sistema. Siamo davanti ad un ambiente di esecuzione per modelli AI in locale capace di sfruttare al massimo l\u2019hardware Apple Silicon attraverso Metal. <\/p>\n<p>Utilizzando Ollama un utente pu\u00f2 scaricare ogni tipo di modello \u201copen\u201d supportato dal computer, e tutto dipende ovviamente dalla quantit\u00e0 di memoria disponibile e dal processore, e <b>tutti i modelli scaricati saranno gestibili e utilizzabili dalle varie app che supportano l&#8217;IA locale<\/b>. Un repository di modelli AI\u00a0locale centralizzato.<\/p>\n<p><img decoding=\"async\" src=\"https:\/\/www.europesays.com\/it\/wp-content\/uploads\/2025\/10\/abb80e_Screenshot_2025-10-19_alle_12.11.30.jpg\" data-image=\"picture-0\"  \/><\/p>\n<p>Se i modelli Apple Foundation non sono ancora perfetti, grazie ad Ollama sul MacBook Pro M5 si pu\u00f2 usare il modello open da 20 miliardi di parametri di OpenAI, si pu\u00f2 usare LLama, si possono usare Gemma, Qwen, Phi, Deepseek e decine di altri modelli:\u00a0<b>sta all&#8217;utente scegliere il modello pi\u00f9 adeguato a seconda anche delle sue necessit\u00e0.<\/b><\/p>\n<p>Il principio di funzionamento di Ollama \u00e8 semplice: esattamente come un server locale (\u00e8 un server locale) accetta da una applicazione un prompt seguito dal nome del modello che deve gestirlo e si occupa di processare la richiesta, offrendo la risposta nel minor tempo possibile.<\/p>\n<p>&#13;<br \/>\n&#13;<\/p>\n<p>Ollama c\u2019\u00e8 anche per Windows e per Linux, ma per poter girare bene oltre a servire una scheda NVIDIA servono anche software che la sfruttino. Al momento la quasi totalit\u00e0 dei software con una interfaccia user friendly usabili anche da chi non ha competenze specifiche ma vuole usare l&#8217;IA in locale sono software per Mac.<\/p>\n<p>&#13;<br \/>\n&#13;<\/p>\n<p>Abbiamo deciso di prendere uno di questi software come esempio, perch\u00e9 ci aiuta a far capire quello che si pu\u00f2 realmente fare oggi su un Mac in ambito AI. Grazie ad Ollama, e senza aspettare Siri con Apple Intelligence, \u00e8 possibile avere su un MacBook un primo assaggio ( siamo agli inizi) del modo in cui l\u2019IA cambier\u00e0 il modo di usare i computer.\u00a0<\/p>\n<p>&#13;<br \/>\n&#13;<\/p>\n<p><a href=\"https:\/\/www.raycast.com\/\" target=\"_blank\" rel=\"nofollow noopener\">Raycast<\/a>, questo il software, \u00e8 un\u2019app che sostituisce Spotlight: fa esattamente quello che pu\u00f2 fare Spotlight, cercare documenti e app, ma oltre a questo fa decine di cose in pi\u00f9, tra le quali integrare una serie di comandi che utilizzano l&#8217;IA per lavorare su testo copiato negli appunti, tab del browser aperte, immagini a schermo e anche dati dei programmi tramite estensioni.<\/p>\n<p><img decoding=\"async\" src=\"https:\/\/www.europesays.com\/it\/wp-content\/uploads\/2025\/10\/05ccf2_Screenshot-2025-10-19-alle-15.13.05.jpg\" data-image=\"picture-0\"  \/><\/p>\n<p>Raycast \u00e8 gratuito, pu\u00f2 usare l\u2019IA di ChatGPT, di Claude e di altri provider a pagamento ma <b>permette anche di connettersi ad Ollama in locale.<\/b> Abbiamo scelto quest\u2019ultima configurazione perch\u00e9\u00a0stiamo lavorando con una serie di file e documenti sul nostro computer e non vogliamo che niente esca verso servizi esterni, soprattutto se si tratta di dati sensibili.<\/p>\n<p>&#13;<\/p>\n<p>Potremmo stare ore a parlare di quello che si pu\u00f2 fare con Raycast, ma mettiamo solo alcuni esempi. Nella videorecensione, che pubblicheremo nelle prossime ore, mostriamo questi esempi in funzione.<\/p>\n<p>&#13;<br \/>\n&#13;<\/p>\n<p>Se selezionate qualsiasi testo, ad esempio, potete chiedere di elaborare le informazioni, trascriverle, riassumerle, tradurle e manipolarle esattamente come si farebbe con un qualsiasi testo che viene copiato e incollato dentro Gemini o ChatGPT.<\/p>\n<p><img decoding=\"async\" src=\"https:\/\/www.europesays.com\/it\/wp-content\/uploads\/2025\/10\/b1407c_macbook_2.JPG\" data-fnumber=\"4\/1\" data-isospeed=\"400\" data-exposure_time=\"1\/320\" data-image=\"mpxeakzg97j9\"  \/><\/p>\n<p>Si possono poi creare poi azioni che eseguono prompt specifici, questo per rispondere ad esigenze precise dell&#8217;utente: come test abbiamo creato il comando &#8220;Pro e contro&#8221; per avere in pochi secondi i pro e i contro di qualsiasi recensione aperta in una delle tab del browser. <\/p>\n<p>Non serve copiare il testo, RayCast grazie alle estensioni del browser pu\u00f2 accedere alle pagine aperte e leggerne il contenuto.<\/p>\n<p><img decoding=\"async\" src=\"https:\/\/www.europesays.com\/it\/wp-content\/uploads\/2025\/10\/877229_Screenshot_2025-10-19_alle_13.37.12.jpg\" data-image=\"picture-0\"  \/><\/p>\n<p>Volendo si pu\u00f2 anche selezionare una parola e chiedere di spiegarla, una immagine chiedendo di cosa si tratta oppure un testo molto lungo e chiedere di generare una mappa mentale per lo studio. Queste, come si vede dalla schermata sotto, vengono generate in pochi secondi in locale e sono scaricabili anche in formato HTML.<\/p>\n<p><img decoding=\"async\" src=\"https:\/\/www.europesays.com\/it\/wp-content\/uploads\/2025\/10\/022eae_mind1.jpg\" data-image=\"picture-0\"  \/><br \/>\n<img decoding=\"async\" src=\"https:\/\/www.europesays.com\/it\/wp-content\/uploads\/2025\/10\/c32b2b_mind2.jpg\" data-image=\"picture-0\"  \/><\/p>\n<p>Volendo tramite IA Raycast pu\u00f2 anche riassumere e leggere i &#8220;video&#8221; di Youtube: basta chiederlo mentre si sta guardando un video e sar\u00e0 lui a capire di che video si tratta, chieder\u00e0 a Youtube i sottotitoli e in base a questo oltre ad una sintesi\u00a0potr\u00e0 anche rispondere a domande specifiche.<\/p>\n<p><img decoding=\"async\" src=\"https:\/\/www.europesays.com\/it\/wp-content\/uploads\/2025\/10\/fbf729_yutube.jpg\" data-image=\"picture-0\"  \/>&#13;<br \/>\n&#13;<br \/>\n&#13;<br \/>\n&#13;<br \/>\n&#13;<\/p>\n<p>Quello che abbiamo dato \u00e8 solo un assaggio, perch\u00e9\u00a0Raycast integra anche quella che pu\u00f2 essere definita una \u201cchat AI\u201d che fa esattamente quello che fa un chatbot come ChatGPU ma con una chicca in pi\u00f9:\u00a0<b>si possono richiamare gli applicativi sul computer<\/b> per i quali si \u00e8 installata una estensione dedicata.<\/p>\n<p>Si richiamano le app usando la @ come si farebbe con un amico in chat:\u00a0nella foto sotto abbiamo chiesto al calendario di fissare un appuntamento e di controllare tramite l&#8217;app Meteo che tempo far\u00e0 in quella data. Notate la sintassi della chiamata e il risultato: questo \u00e8 quello che doveva fare a voce la nuova Siri.<\/p>\n<p>&#13;<br \/>\n&#13;<br \/>\n<img decoding=\"async\" src=\"https:\/\/www.europesays.com\/it\/wp-content\/uploads\/2025\/10\/a7990a_Screenshot_2025-10-19_alle_14.43.25.jpg\" data-image=\"picture-0\"  \/>&#13;<\/p>\n<p>Possiamo anche chiedere di cercare nelle email, e tutto questo con il client di posta chiuso: Raycast ha accesso al database delle email (se gli date accesso) e cerca mail per soggetto, data, mittente elaborando il contenuto del testo e interagendo con la rubrica. <\/p>\n<p>Qui sotto abbiamo chiesto ad esempio di prendere una mail, riassumerla e creare una nota. Lo ha fatto, in pochi secondi.\u00a0<\/p>\n<p>&#13;<\/p>\n<p><img decoding=\"async\" src=\"https:\/\/www.europesays.com\/it\/wp-content\/uploads\/2025\/10\/65e6f8_mail2.jpg\" data-fnumber=\"null\" data-isospeed=\"null\" data-exposure_time=\"null\" data-image=\"huohc8gceyqr\"  \/><br \/>\n<img decoding=\"async\" src=\"https:\/\/www.europesays.com\/it\/wp-content\/uploads\/2025\/10\/fb24c6_mail3.jpg\" data-fnumber=\"null\" data-isospeed=\"null\" data-exposure_time=\"null\" data-image=\"krqqykfp7lbi\"  \/><br \/>\n&#13;<\/p>\n<p>Raycast ha migliaia di estensioni disponibili, sono tutte open source ed \u00e8 anche facile creare estensioni: ognuna di queste permette di accedere a dati delle app che il modello locale potr\u00e0 elaborare per creare un output che potr\u00e0 essere usato per altre app. Tutto in locale, sicuro e protetto ma anche gratuito. <\/p>\n<p><img decoding=\"async\" src=\"https:\/\/www.europesays.com\/it\/wp-content\/uploads\/2025\/10\/6dc56a_macbook_1.JPG\" data-fnumber=\"39\/10\" data-isospeed=\"400\" data-exposure_time=\"1\/400\" data-image=\"kxdwm1o9jnbz\"  \/>Come creare con un chatbot un appuntamento a calendario per un pranzo in un ristorante, tutto automatico<\/p>\n<p>Per un utente un po&#8217; evoluto, come abbiamo scritto, \u00e8 facile creare script e azioni che ricalcano i suoi workflow abituali: noi, ad esempio, abbiamo scritto un comando per valutare le modifiche fatte al codice di un sito e creare una descrizione del &#8220;changelog&#8221; uniforme e coerente con tutte le modifiche dettagliate e spiegate.<\/p>\n<p><img decoding=\"async\" src=\"https:\/\/www.europesays.com\/it\/wp-content\/uploads\/2025\/10\/3fabe3_Screenshot_2025-10-19_alle_14.24.09.jpg\" data-image=\"picture-0\"  \/><\/p>\n<p>Non \u00e8 finita qui, perch\u00e9 Raycast supporta anche MCP (Model Context Protocol), il protocollo creato da Anthropic che permette ai modelli IA di accedere a dati che non necessariamente risiedono sul computer, ma possono essere su server in cloud. Tramite MCP\u00a0Raycast pu\u00f2 ad esempio usare Blender, e abbiamo chiesto al chatbot di creare decine di oggetti 3D in una posizione specifica come gli abbiamo anche chiesto di\u00a0leggere e scrivere file da Google Drive. MCP\u00a0\u00e8 la chiave che permetter\u00e0 di creare agenti AI, dove i modelli si passano i dati in modo sicuro e protetto.<\/p>\n<p>Abbiamo anche configurato un server MCP (lo fa Raycast in automatico)\u00a0per poter accedere ad una cartella specifica del nostro laptop, fornendo quindi ad un modello la capacit\u00e0 di vedere che file ci sono, spostarli, aprirli, gestirli. Qui sotto la richiesta per l&#8217;elenco dei file PDF presenti in una directory, libri scolastici, con il chatbot che ha risposto in pochi secondi.<\/p>\n<p>&#13;<br \/>\n&#13;<br \/>\n&#13;<br \/>\n<img decoding=\"async\" src=\"https:\/\/www.europesays.com\/it\/wp-content\/uploads\/2025\/10\/67cc80_Screenshot_2025-10-19_alle_13.46.54.jpg\" data-image=\"picture-0\"  \/>&#13;<\/p>\n<p>Successivamente abbiamo chiesto di creare un file di testo contenente l&#8217;elenco di questi libri formattandolo in un determinato modo e l&#8217;IA ha scritto il file, questo dopo averci chiesto il permesso finale per procedere alla scrittura. Impressionante.<\/p>\n<p><img decoding=\"async\" src=\"https:\/\/www.europesays.com\/it\/wp-content\/uploads\/2025\/10\/9ee5fe_Screenshot_2025-10-19_alle_13.49.08.jpg\" data-image=\"picture-0\"  \/><\/p>\n<p>Raycast \u00e8 solo un esempio, ma fa capire benissimo che la potenza di M5 in ambito AI combinata con Ollama e protocolli come MCP sono davvero l&#8217;inizio di una rivoluzione &#8220;AI&#8221;. <\/p>\n<p>Molto di questo si pu\u00f2 gi\u00e0 fare in cloud, ma vuol dire inviare dati sensibili all&#8217;esterno: se sono dati aziendali non si pu\u00f2 fare, \u00e8 contro il GDPR.\u00a0<\/p>\n<p>Come esiste Raycast esistono decine di app simili, e sono tutte user friendly e facili da usare: c\u2019\u00e8 Msty.ai, che permette di avere una sorta di NotebookLM in locale, c&#8217;\u00e8 EnConvo, che fa pi\u00f9 o meno quello che viene fatto da Raycast, ci sono plugin per Photoshop che permettono di generare immagini da Flux o da Stable Diffusion in locale e ci sono decine di sistemi per creare agenti in locale.<\/p>\n<p><img decoding=\"async\" src=\"https:\/\/www.europesays.com\/it\/wp-content\/uploads\/2025\/10\/148e2e_macbook_ok.JPG\" data-fnumber=\"4\/1\" data-isospeed=\"400\" data-exposure_time=\"1\/400\"  \/><\/p>\n<p>Un inizio, e ci vorr\u00e0 ancora un po&#8217; di tempo perch\u00e9 a volte questi software sbagliano, e non tutti i modelli sono perfetti, ma con M5 Apple ha posto le basi per la rivoluzione AI che tutti si aspettavano da Apple Intelligence, e che invece arriva dalla porta di servizio. L&#8217;IA locale ha senso solo se \u00e8 veloce e se si possono usare modelli di qualit\u00e0: su questo MacBook Pro, soprattutto nella versione da 32 GB, si possono usare modelli davvero buoni e i tempi di risposta, e di generazione, sono davvero ottimi.<\/p>\n","protected":false},"excerpt":{"rendered":"Il solito eccellente MacBook Pro, con un processore che va pi\u00f9 veloce. Molto pi\u00f9 veloce, soprattutto se si&hellip;\n","protected":false},"author":3,"featured_media":177191,"comment_status":"","ping_status":"","sticky":false,"template":"","format":"standard","meta":{"footnotes":""},"categories":[173],"tags":[1537,90,89,195,198,199,197,200,201,194,196],"class_list":{"0":"post-177190","1":"post","2":"type-post","3":"status-publish","4":"format-standard","5":"has-post-thumbnail","7":"category-scienza-e-tecnologia","8":"tag-it","9":"tag-italia","10":"tag-italy","11":"tag-science","12":"tag-science-and-technology","13":"tag-scienceandtechnology","14":"tag-scienza","15":"tag-scienza-e-tecnologia","16":"tag-scienzaetecnologia","17":"tag-technology","18":"tag-tecnologia"},"share_on_mastodon":{"url":"https:\/\/pubeurope.com\/@it\/115414260977622405","error":""},"_links":{"self":[{"href":"https:\/\/www.europesays.com\/it\/wp-json\/wp\/v2\/posts\/177190","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/www.europesays.com\/it\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/www.europesays.com\/it\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/www.europesays.com\/it\/wp-json\/wp\/v2\/users\/3"}],"replies":[{"embeddable":true,"href":"https:\/\/www.europesays.com\/it\/wp-json\/wp\/v2\/comments?post=177190"}],"version-history":[{"count":0,"href":"https:\/\/www.europesays.com\/it\/wp-json\/wp\/v2\/posts\/177190\/revisions"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/www.europesays.com\/it\/wp-json\/wp\/v2\/media\/177191"}],"wp:attachment":[{"href":"https:\/\/www.europesays.com\/it\/wp-json\/wp\/v2\/media?parent=177190"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/www.europesays.com\/it\/wp-json\/wp\/v2\/categories?post=177190"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/www.europesays.com\/it\/wp-json\/wp\/v2\/tags?post=177190"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}