{"id":137175,"date":"2025-09-29T11:09:12","date_gmt":"2025-09-29T11:09:12","guid":{"rendered":"https:\/\/www.europesays.com\/it\/137175\/"},"modified":"2025-09-29T11:09:12","modified_gmt":"2025-09-29T11:09:12","slug":"i-primi-piccoli-passi-di-apple-intelligence-nellapp-store-ecco-le-prime-app-che-usano-lia-locale","status":"publish","type":"post","link":"https:\/\/www.europesays.com\/it\/137175\/","title":{"rendered":"I primi piccoli passi di Apple Intelligence nell\u2019App Store. Ecco le prime app che usano l\u2019IA locale"},"content":{"rendered":"<p>Apple Intelligence <b>non \u00e8 solo Siri. <\/b><\/p>\n<p>Siri, prima annunciato, promesso e poi rimandato, resta un brutto scivolone di Apple che verr\u00e0 ricordato ogni volta che si parler\u00e0 in futuro di Apple, iPhone e di IA. <\/p>\n<p>Apple Intelligence sono anche i modelli di IA generativa che l&#8217;azienda di Cupertino ha allenato in questi anni pensando non solo di usarli come base per le sue funzionalit\u00e0 ma di renderli disponibili agli sviluppatori delle app destinate ai suoi prodotti quindi iPhone, iPad e Mac. <\/p>\n<p>Questa novit\u00e0, annunciata alla WWDC 2025 a giugno, ha suscitato un enorme interesse negli sviluppatori: tramite il Foundation Models framework avrebbero finalmente potuto inviare al modello un &#8220;prompt&#8221; senza costi, in totale sicurezza e soprattutto con latenza davvero ridotta. Questa possibilit\u00e0, un modello LLM gi\u00e0 installato in locale da interrogare rapidamente, permette di processare dati in un modo che un normale algoritmo non pu\u00f2 fare, superando quindi la barriera che fino ad oggi ha impedito di aggiungere alle app alcune funzioni particolari. Certo, avrebbero potuto farlo usando le classiche API di Google, OpenAI e Claude, ma cos\u00ec facendo <b>sarebbero stati costretti a inviare dati dell\u2019utente all\u2019esterno e attendere come risposta un risultato<\/b> che potrebbe arrivare anche con quel ritardo fastidioso, alla fine c\u2019\u00e8 sempre una connessione di mezzo.<\/p>\n<p>Decine di applicazioni sono gi\u00e0 state aggiornate&#13;<br \/>\n&#13;<\/p>\n<p>Con il lancio di iOS 26 decine di applicazioni per iPhone e Mac sono state aggiornate per iniziare ad usare l\u2019IA on device. Non bisogna aspettarsi rivoluzioni, si potrebbe dire che<b> l\u2019IA \u00e8 arrivata nelle app in punta di piedi<\/b>, e non ci troviamo nemmeno davanti a funzioni fondamentali. Come vedremo, per\u00f2, ci troviamo davanti ad un cambiamento che a tendere pu\u00f2 portare ad una nuova generazione di app intelligenti. In un momento in cui si fatica davvero a trovare qualcosa di nuovo nell\u2019hardware di un telefono o di un computer le applicazioni, che poi sono l\u2019elemento che definisce l\u2019esperienza d\u2019uso e anche il piacere di utilizzo, rivestono un ruolo fondamentale.<\/p>\n<p>&#13;<br \/>\n&#13;<\/p>\n<p>Prima di fare alcuni esempi, e di vedere come l\u2019IA on-device \u00e8 entrata all\u2019interno delle app, \u00e8 bene fare alcune precisazioni. Non si potr\u00e0 mai fare affidamento solo ed esclusivamente all\u2019IA sul dispositivo: i risultati che oggi vengono restituiti dai modelli elaborati nei datacenter <b>sono di gran lunga superiori qualitativamente parlando<\/b>, ma non bisogna confondere le due cose. <\/p>\n<p>Un esempio \u00e8 dato dalla \u201cricerca\u201d: oggi ogni dispositivo e ogni sistema operativo hanno un algoritmo di ricerca che funziona pi\u00f9 o meno bene, ma questo cerca solo ed esclusivamente sul dispositivo e nelle app. Per cercare oltre il perimetro esistono i motori di ricerca.<\/p>\n<p> Allo stesso modo un modello generativo presente su un dispositivo deve essere bravo a fare una sintesi di testo, a lavorare con i dati estraendo informazioni, a unire ed elaborare elementi da pi\u00f9 parti ma <b>non deve necessariamente avere nozioni storiche, scrivere codice o analizzare trattati scientifici.<\/b> L\u2019elaborazione IA on-device non pu\u00f2 e non potr\u00e0 mai escludere la necessit\u00e0 di appoggiarsi al cloud, un po\u2019 come oggi ci si appoggia ad un motore di ricerca.<\/p>\n<p>&#13;<\/p>\n<p>Il modello LLM on-device di Apple \u00e8 stato allenato per dare agli sviluppatori quello di cui hanno realmente bisogno per migliorare le loro app. Descritto nei vari whitepaper, <b>\u00e8 calibrato a circa 3 miliardi di parametri <\/b>e questa dimensione \u00e8 stata scelta per trovare l&#8217;equilibrio ideale tra capacit\u00e0 e requisiti di memoria e potenza, rendendolo specializzato per i task di utilizzo quotidiano. Per essere efficace in un contesto di sistema operativo, la performance deve essere percepita come istantanea. Le metriche prestazionali riportate dai white paper Apple sono impressionanti: i<b>l modello raggiunge una velocit\u00e0 di generazione di 30 tokens al secondo su iPhone 15 Pro<\/b>, con una latenza (tempo al primo token) di soli 0.6 millisecondi. Questa rapidit\u00e0 non sarebbe raggiungibile senza scelte architetturali specifiche per l&#8217;Apple Silicon.<\/p>\n<p>&#13;<br \/>\n&#13;<\/p>\n<p>Le tecniche di ottimizzazione sono il cuore di questa architettura: Apple utilizza una quantizzazione a 2-bit (QAT &#8211; Quantization-Aware Training), quindi una compressione estremamente aggressiva che riduce i requisiti di memoria e massimizza il throughput del Neural Engine; aggiunge anche ottimizzazioni per gestire contesti di conversazione pi\u00f9 lunghi. <\/p>\n<p>Una quantizzazione cos\u00ec spinta (2-bit) pu\u00f2 <b>teoricamente ridurre la qualit\u00e0 del modello<\/b> portando ad un aumento degli errori, tuttavia la ragione di questa scelta \u00e8 dare priorit\u00e0 assoluta alla rapidit\u00e0.<\/p>\n<p>&#13;<br \/>\n&#13;<\/p>\n<p>Apple non vuole competere con questo modello con Qwen, Llama, Gemma e altri modelli da 3 miliardi di parametri, ed infatti ha scelto di affinarlo sui compiti specifici dell\u2019utente e i risultati confermano questa strategia: in benchmark basati su prompts reali, il modello on-device supera modelli open-source pi\u00f9 grandi (come Mistral-7B o Llama-3-8B). La vera forza non \u00e8 la qualit\u00e0 generica, ma la performance istantanea e la precisione nei task di sistema predefiniti, che sono le &#8220;piccole funzioni IA&#8221; che gli utenti sperimentano quotidianamente.<\/p>\n<p>&#13;<br \/>\n&#13;<\/p>\n<p>Quello che \u00e8 stato fatto su iOS, e che anche Microsoft ha provato ora a fare su Windows con il suo modello Phi Silica, \u00e8 rendere facile per gli sviluppatori non solo integrare questo modello nelle app ma anche <b>personalizzarlo con un fine tuning specifico<\/b>. <\/p>\n<p>Secondo alcuni sviluppatori Swift che hanno lavorato questa estate per integrare la chiamata al modello nelle loro app, l\u2019aspetto pi\u00f9 rivoluzionario \u00e8 il supporto runtime per gli adattatori LoRA (Low-Rank Adaptation). Questo consente agli sviluppatori di specializzare il modello di base di Apple per ambiti specifici con un set di dati ridotto, <b>senza dover riaddestrare l&#8217;intero modello.<\/b> <\/p>\n<p>Il modello AI di Apple non \u00e8 chiuso, e Apple ne ha democratizzato l&#8217;accesso permettendo la creazione di &#8220;piccole funzioni IA&#8221; verticali e specializzate. Una applicazione di viaggi potrebbe usare il modello base aggiungendo come dati di \u201cextra training\u201d tutte le informazioni provenienti dalle guide turistiche, questo senza dover addestrare nuovamente tutto. Per uno sviluppatore vuol dire trovarsi l\u2019IA a portata di mano.<\/p>\n<p>&#13;<br \/>\n&#13;<br \/>\nLe prime app che usano l\u2019IA locale&#13;<br \/>\n&#13;<\/p>\n<p>Tanmay Sonawane \u00e8 lo sviluppatore di <a href=\"https:\/\/apps.apple.com\/us\/app\/finma-ai-finance-tracker\/id6446134557\" target=\"_blank\" rel=\"nofollow noopener\">Finma<\/a>, un\u2019app nata per gestire le proprie finanze personali e le spese. Finma ha un piano a pagamento che utilizza l\u2019IA, e lo sviluppatore ha sempre usato le api di Google Gemini per i compiti pesanti, come il parsing PDF e le analisi.<\/p>\n<p>Con l\u2019arrivo di iOS 26, per i compiti semplici e ripetitivi (estrazione transazioni da SMS, suggerimento categorie, mappatura CSV, riassunti brevi) <b>ha iniziato ad usare il modello on-device introdotto con il nuovo Foundation Models Framework<\/b>. Questo ha semplificato notevolmente il lavoro: invece di spedire migliaia di transazioni al modello cloud, Finma usa il modello di Apple per filtrare i dati e preparare solo quelli che servono. <br \/>&#13;\n<\/p>\n<p>&#13;<\/p>\n<p>Fino ad oggi quando l\u2019utente chiedeva all\u2019app \u201cQuanto ho speso in ristoranti questo mese?\u201d l\u2019app inviava tutti i dati a Gemini con tutte le spese, e Gemini cercava di capire quali erano di ristoranti.<\/p>\n<p>&#13;<\/p>\n<p>Con l\u2019arrivo dei modelli di Apple \u00e8 il piccolo modello in locale che capisce la domanda, filtra le transazioni per la categoria \u201cristoranti\u201d e per il periodo \u201cmese corrente\u201d e cos\u00ec viene passato al modello di Google solo il risultato aggregato: <b>l\u2019app non invia dati sensibili al cloud, i calcoli sono molto pi\u00f9 precisi <\/b>e non ha limiti di \u201ccontext size\u201d perch\u00e9 le operazioni avvengono localmente.<\/p>\n<p><video autoplay=\"\" muted=\"\" loop=\"\" playsinline=\"\" style=\"width:100%;max-width:600px;display:block;\">&#13;<br \/>\n  &#13;<br \/>\n  Il tuo browser non supporta il tag video.&#13;<br \/>\n<\/video>&#13;<\/p>\n<p>L\u2019arrivo del modello on-device ha permesso anche un\u2019altra funzione dell\u2019app, che per una applicazione di tracciamento delle spese pu\u00f2 essere fondamentale: usando le automazioni di Comandi vengono intercettati gli SMS in arrivo e il testo di questi ultimi viene passato al modello on-device che <b>estrae importo, descrizione, ecc. e crea una transazione Finma.<\/b><\/p>\n<p>&#13;<br \/>\n&#13;<\/p>\n<p>Ogni spesa fatta con la carta di credito, quando arriva l\u2019SMS della banca, viene aggiunta automaticamente e questo si pu\u00f2 fare solo perch\u00e9 c\u2019\u00e8 un modello in locale che analizza il testo e estrae i dati. <\/p>\n<p><video autoplay=\"\" muted=\"\" loop=\"\" playsinline=\"\" style=\"width:100%;max-width:600px;display:block;\">&#13;<br \/>\n  &#13;<br \/>\n  Il tuo browser non supporta il tag video.&#13;<br \/>\n<\/video><\/p>\n<p>Se una persona decide di aggiungere a mano una spesa, man mano che l\u2019utente digita la descrizione il modello on-device <b>suggerisce la categoria<\/b>. Quando si importa infine un file CSV con un estratto conto di spese, il modello locale associa automaticamente le colonne ai campi interni (data, importo, descrizione, ecc.).<\/p>\n<p>&#13;<br \/>\n&#13;<\/p>\n<p>Piccole cose, che non possono essere gestite con un algoritmo e che quindi senza un modello locale non ci sarebbero state.\u00a0<\/p>\n<p>&#13;<br \/>\n&#13;<\/p>\n<p>Tanmay Sonawane racconta anche quelli che sono stati i limiti incontrati nello sviluppo: i modelli Apple on-device supportano solo 4096 token e per l\u2019uso che ne fa Finma non \u00e8 un problema enorme (perch\u00e9 fa i filtri localmente), ma \u00e8 un limite rigido per compiti pi\u00f9 grossi. Inoltre il modello on-device <b>non \u00e8 ancora precisissimo e si aspetta che Apple migliori questo aspetto nel tempo<\/b>; per questo motivo Finma continuer\u00e0 a usare i LLM esterni (Gemini) per la funzione chat vera e propria, e il modello on-device solo per i compiti pi\u00f9 semplici. Se Apple dovesse migliorare, sarebbe disposto a passare alla soluzione sul dispositivo per tutte le funzionalit\u00e0.<\/p>\n<p>&#13;<br \/>\n&#13;<\/p>\n<p><a href=\"https:\/\/moneycoach.ai\/\" target=\"_blank\" rel=\"nofollow noopener\">MoneyCoach<\/a> \u00e8 un\u2019altra app di gestione delle spese quotidiane che ha integrato l&#8217;IA con iOS 26.<\/p>\n<p><img decoding=\"async\" src=\"https:\/\/www.europesays.com\/it\/wp-content\/uploads\/2025\/09\/0cf45a_Screenshot_2025-09-28_alle_19.23.55.jpg\" data-image=\"picture-0\"  \/><\/p>\n<p>In questo caso lo sviluppatore ha usato i modelli IA sul dispositivo per trasformare l&#8217;app da un semplice registro a un consulente finanziario proattivo. Invece di mostrare solo dati grezzi, l&#8217;app fornisce ora consapevolezza (&#8220;hai speso pi\u00f9 della media in alimentari questa settimana\u201d) e questo, secondo l\u2019autore, \u00e8 fondamentale per una migliore gestione delle finanze. <\/p>\n<p>Il fatto che non venga dato un messaggio generico ma un messaggio personalizzato sulle spese dell\u2019utente \u00e8 un cambiamento radicale. Inoltre l\u2019IA velocizza drasticamente l&#8217;inserimento delle spese, perch\u00e9 <b>mentre si scrive suggerisce le categorie di spesa<\/b>. Come nel caso di Finma l\u2019uso di modelli in cloud avrebbe aumentato la latenza, fatto salire i costi ma soprattutto le spese dell\u2019utente venivano mandate all\u2019esterno.<\/p>\n<p>&#13;<br \/>\n&#13;<\/p>\n<p>C\u2019\u00e8 poi <a href=\"https:\/\/apps.apple.com\/us\/app\/daylish-visual-schedule\/id6751201325\" target=\"_blank\" rel=\"nofollow noopener\">Daylish<\/a>, un\u2019agenda interattiva giornaliera: qui l\u2019impatto dell\u2019IA \u00e8 minimo ma significativo, perch\u00e9 il modello di Apple analizza il titolo dell&#8217;evento (es. &#8220;Riunione importante con team&#8221;) e suggerisce un&#8217;emoji pertinente (es. \ud83e\udd1d o \ud83d\udea8). <\/p>\n<p><img decoding=\"async\" src=\"https:\/\/www.europesays.com\/it\/wp-content\/uploads\/2025\/09\/3ec47b_dl.jpg\" data-image=\"picture-0\"  \/><\/p>\n<p>Questo secondo lo sviluppatore migliora la leggibilit\u00e0 durante la scansione della timeline, aumentando l&#8217;efficienza visiva dell\u2019app. Come abbiamo detto prima non si tratta di rivoluzioni, ma un piccolo cambiamento come questo facilita le operazioni e migliora l\u2019esperienza.<\/p>\n<p>&#13;<br \/>\n&#13;<\/p>\n<p>Anche gli sviluppatori di app simili a Daylish hanno trovato il modo di usare l\u2019IA, ognuno a suo modo. <\/p>\n<p><a href=\"https:\/\/apps.apple.com\/us\/app\/tasks-todo-lists-kanban\/id1502903102\" target=\"_blank\" rel=\"nofollow noopener\">Tasks<\/a>, come dice il nome stesso, serve a gestire una serie di To-Do-Lists e grazie al modello locale ora l\u2019app pu\u00f2 acquisire un blocco di testo parlato complesso (es. &#8220;Devo organizzare la festa, comprare le bevande, chiamare Marco e inviare gli inviti&#8221;) e <b>scomporlo in singole attivit\u00e0<\/b> senza richiedere una connessione internet.\ufeff<\/p>\n<p>&#13;<br \/>\n&#13;<\/p>\n<p><a href=\"https:\/\/dayoneapp.com\/\" target=\"_blank\" rel=\"nofollow noopener\">Day One<\/a> \u00e8 invece un gestore di diario personale, dove il modello locale agisce come un editor e un facilitatore di auto-riflessione.<\/p>\n<p><img decoding=\"async\" src=\"https:\/\/www.europesays.com\/it\/wp-content\/uploads\/2025\/09\/c4260c_Screenshot_2025-09-28_alle_19.28.52.jpg\" data-fnumber=\"null\" data-isospeed=\"null\" data-exposure_time=\"null\" data-image=\"s2bfrw7pau5w\"  \/><\/p>\n<p> Permette all&#8217;utente di rivedere rapidamente i vecchi diari, risparmiando tempo e fornendo una panoramica del contenuto emotivo e ha una funzione di generazione di prompt che incoraggiano ad &#8220;andare pi\u00f9 a fondo&#8221; basandosi su ci\u00f2 che \u00e8 stato appena scritto (es. &#8220;Hai menzionato di essere stressato per il lavoro, cosa pensi ne sia la causa principale?\u201d).<\/p>\n<p>&#13;<br \/>\n&#13;<\/p>\n<p>In <a href=\"https:\/\/lumy.app\/\" target=\"_blank\" rel=\"nofollow noopener\">Lumy<\/a>, app di tracciamento del sole, il modello LLM locale viene usato per fornire consigli utili e contestuali (es. &#8220;Il tramonto sar\u00e0 particolarmente spettacolare stasera, preparati la macchina fotografica&#8221; o &#8220;Vento forte, potresti voler riprogrammare la tua corsa in bicicletta\u201d) mentre in Croton, app di ricette, l&#8217;utente pu\u00f2 copiare un testo di ricetta non formattato da internet l&#8217;AI lo analizza e lo suddivide in passaggi numerati e facili da seguire, standardizzando le istruzioni e riducendo gli errori durante la cottura.<\/p>\n<p>&#13;<br \/>\n<img decoding=\"async\" src=\"https:\/\/www.europesays.com\/it\/wp-content\/uploads\/2025\/09\/59d5be_Lumy_image_Banner_102_1f4f_standard.png\" data-image=\"picture-0\"  \/>&#13;<\/p>\n<p>Interessante anche <a href=\"https:\/\/apps.apple.com\/us\/app\/signeasy-sign-documents-app\/id381786507\" target=\"_blank\" rel=\"nofollow noopener\">Signeasy<\/a>, che gestisce firme digitali di documenti. Qui l\u2019AI aggiunge uno strato di sicurezza: prima di firmare, l&#8217;app utilizza il modello locale di Apple per analizzare il contratto, <b>estrarre le clausole chiave e fornire un riassunto conciso<\/b>. Questo aiuta l&#8217;utente a comprendere rapidamente i punti salienti di un documento legale (es. termini di pagamento, clausole di recesso) senza leggerlo integralmente.<\/p>\n<p>&#13;<br \/>\n&#13;<\/p>\n<p>Ci sono altre decine di app, sia per iPhone che per Mac (JuxtaCode, JuxtaText, Lire, etc) che sono state aggiornate, e a breve \u00e8 lecito aspettarsi che questo numero crescer\u00e0: i modelli sono facilissimi da usare, non devono essere scaricati e sono condivisi tra tutte le app. Inoltre<b> sono gratuiti, e questo per un piccolo sviluppatore \u00e8 un incentivo notevole perch\u00e9 usando il cloud non pu\u00f2 prevedere i costi.<\/b><\/p>\n<p>&#13;<br \/>\n&#13;<\/p>\n<p>Questa \u00e8 l\u2019unica strada percorribile per l&#8217;IA locale, e anche Microsoft sta facendo lo stesso: dentro i Copilot+ PC c\u2019\u00e8 un modello condiviso, Phi Silica, accessibile dagli sviluppatori che usa la NPU dei laptop.<\/p>\n<p><img decoding=\"async\" src=\"https:\/\/www.europesays.com\/it\/wp-content\/uploads\/2025\/09\/d1045e_Screenshot_2025-09-28_alle_19.32.34.jpg\" data-image=\"picture-0\"  \/>&#13;<\/p>\n<p>Le funzionalit\u00e0 IA, vale sia per Apple sia per Microsoft, si abilitano solo ed esclusivamente nel caso in cui sia attivata Apple Intelligence o, in Windows, ci si trovi di fronte ad un PC Copilot+. Se non sono attivi le app perdono le funzioni &#8220;aggiuntive&#8221;.<\/p>\n<p>Ad oggi, tuttavia, non ci risulta che ci siano app che sfruttano questa possibilit\u00e0 su Windows, anche se Microsoft ha apparecchiato la tavola per gli sviluppatori. <\/p>\n<p>Sviluppatori che, nel caso di Apple, hanno invece risposto all\u2019appello numerosi: in attesa di Siri, che non sappiamo quando arriver\u00e0, Apple Intelligence sta entrando a piccoli passi nelle app che usiamo tutti i giorni.<\/p>\n","protected":false},"excerpt":{"rendered":"Apple Intelligence non \u00e8 solo Siri. Siri, prima annunciato, promesso e poi rimandato, resta un brutto scivolone di&hellip;\n","protected":false},"author":3,"featured_media":137176,"comment_status":"","ping_status":"","sticky":false,"template":"","format":"standard","meta":{"footnotes":""},"categories":[173],"tags":[1537,90,89,195,198,199,197,200,201,194,196],"class_list":{"0":"post-137175","1":"post","2":"type-post","3":"status-publish","4":"format-standard","5":"has-post-thumbnail","7":"category-scienza-e-tecnologia","8":"tag-it","9":"tag-italia","10":"tag-italy","11":"tag-science","12":"tag-science-and-technology","13":"tag-scienceandtechnology","14":"tag-scienza","15":"tag-scienza-e-tecnologia","16":"tag-scienzaetecnologia","17":"tag-technology","18":"tag-tecnologia"},"share_on_mastodon":{"url":"","error":""},"_links":{"self":[{"href":"https:\/\/www.europesays.com\/it\/wp-json\/wp\/v2\/posts\/137175","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/www.europesays.com\/it\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/www.europesays.com\/it\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/www.europesays.com\/it\/wp-json\/wp\/v2\/users\/3"}],"replies":[{"embeddable":true,"href":"https:\/\/www.europesays.com\/it\/wp-json\/wp\/v2\/comments?post=137175"}],"version-history":[{"count":0,"href":"https:\/\/www.europesays.com\/it\/wp-json\/wp\/v2\/posts\/137175\/revisions"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/www.europesays.com\/it\/wp-json\/wp\/v2\/media\/137176"}],"wp:attachment":[{"href":"https:\/\/www.europesays.com\/it\/wp-json\/wp\/v2\/media?parent=137175"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/www.europesays.com\/it\/wp-json\/wp\/v2\/categories?post=137175"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/www.europesays.com\/it\/wp-json\/wp\/v2\/tags?post=137175"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}