Per anni l’evoluzione della fotografia su smartphone è stata una narrazione semplice, scandita dall’aumento dei megapixel e da modalità di scatto inedite che sono state rese possibili solo quando è stata introdotta l’IA nei dispositivi, si pensi al ritratto o alle modalità notturne. Ma oggi la domanda sorge spontanea: c’è ancora spazio per migliorare la qualità in un modo che l’utente possa davvero percepire?
Secondo Judd Heape, responsabile della divisione fotocamere di Qualcomm, la risposta è complessa. “A essere onesti, la qualità dell’immagine sta raggiungendo una specie di punto asintotico”, ammette.
L’ultima vera rivoluzione percepita da tutti, effettivamente, è stata la capacità di scattare foto al buio. Oggi, anche se i processori d’immagine (ISP) come lo Spectra di Qualcomm sono incredibilmente potenti e pronti per il futuro, capaci di gestire flussi dati immensi come 200 megapixel senza ritardo dell’otturatore (non-ZSL) o tre sensori da 36 megapixel simultaneamente, i miglioramenti di anno in anno sono ormai marginali. “La qualità, oggettivamente, è altissima” dice Heape.
Chiediamo a questo punto che senso abbia continuare ad investire su un aspetto che non porta poi un beneficio reale apprezzabile, ma è lo stesso Heape ad offrire una contro-argomentazione: “Se vado a guardare le fotografie di quattro anni fa, che allora ritenevo ottime, oggi non mi sembrano così belle. Il progresso nelle fotocamere, sebbene sottile, è costante e se non ci ha una percezione immediata del miglioramento la si ha dopo qualche anno, ma c’è.”
Se la pura qualità non è più il motore principale dell’innovazione, quale sarà la prossima frontiera?
La “balena bianca”: una fotocamera che impara da noi
Chiediamo così al manager di Qualcomm qual è la sua “balena bianca” nella fotografia, quell’ossessione che prova a raggiungere con il suo team da anni e che ancora non ha raggiunto.
Heape sposta il focus dall’hardware all’intelligenza. “Ciò a cui dobbiamo arrivare è usare più AI, in modo che la fotocamera capisca meglio le tue preferenze”, spiega. “La fotocamera deve sapere come ti piace scattare, come ami inquadrare, che tipo di sensazione cerchi in uno scatto. E deve gestire tutto questo per te”.
Non si tratta più quindi di produrre un’immagine perfetta, ma un’immagine che risuoni con lo stile personale dell’utente: lo smartphone ha accesso al rullino, vede che tipo di fotografie fa una persona, come le ritocca, come espone, che ritagli fa. “Quello che cerchiamo è un assistente creativo che, invece di presentare decine di filtri nell’editor, modifica direttamente la foto”
Heape ci fa notare che spesso le innovazioni non richiedono grossi sacrifici tecnici, basta solo avere un’idea. Mettiamo sul tavolo così la recente fotocamera frontale con sensore “quadrato” di Apple, che non migliora la foto come resa qualitativa ma permette di ritagliare immagini verticali e orizzontali senza perdita di risoluzione. Niente di sofisticato, ma nessuno ci aveva pensato. Heape ci dice che una cosa simile è successa con la “Always-sensing camera” che il suo team aveva sviluppato anni fa ma che nessun produttore ha voluto usare. Ai tempi era una rivoluzione, era pronta, ma nessuno ci ha creduto. “Io credevo molto in questa funzione”, aggiunge Heape, “e ci è voluto un po’ di tempo perché prendesse piede”.
Introdotta intorno al lancio del chip Snapdragon 8 Gen 1, la Always-sensing camera permette alla fotocamera frontale (o parte di essa) di restare attiva in modalità a bassissimo consumo, anche quando il telefono è in standby. L’obiettivo è far sì che il telefono possa sbloccare automaticamente lo schermo quando riconosce il volto dell’utente, oppure bloccare il dispositivo quando il volto sparisce. In più, può intervenire per nascondere notifiche sensibili o evitare che contenuti privati vengano mostrati se si rileva un secondo volto. Ad oggi questa funzione non è ancora usata da nessuno.
I partner usano i processori al 70%. Una Snapdragon Camera? Difficile con la frammentazione di Android.
Qualcomm, lo sappiamo, progetta il cuore tecnologico di quasi tutti gli smartphone Android, ma non ha il controllo totale. Ogni anno allo Snapdragon Summit mostra una serie di novità software per spremere al meglio l’hardware fotografico, tuttavia i vari produttori non le adottano, in modo simile a quanto successo con la Always Sensing Camera. “Se l’hardware viene spesso sfruttato al pieno delle sue capacità, solo il 70% circa delle funzionalità software sviluppate da Qualcomm arriva sui dispositivi finali” ammette Heape.
Che ci spiega anche perché, da noi solleticato, non esista una “Snapdragon Camera” app che invece possa sfruttare a pieno il processore e le feature software. Heape chiarisce i motivi: la frammentazione dell’ecosistema renderebbe l’esperienza incoerente, troppi dispositivi diversi e con fotocamere diverse, ma soprattutto Qualcomm non vuole “pestare i piedi” ai suoi partner. “La fotocamera è l’unico modo in cui gli OEM possono davvero differenziare i loro telefoni. CPU e GPU sono benchmark. Le fotocamere sono l’elemento attorno al quale possono creare un prodotto diverso” spiega il dirigente.
Mentre lo salutiamo cerchiamo di vedere se chiarisce una nostra curiosità, ovvero perché il codec AVP accelerato hardware è presente sui chip per smartphone, gli Snapdragon 8 Elite Gen5, ma non sulla nuova piattaforma per laptop X2 Elite dove sarebbe davvero utile. “È stata solo una questione di tempismo”, spiega Heape, “abbiamo finalizzato il chip per laptop molto prima e non ha la stessa versione di decoder hardware”. Aggiungendo che c’è comunque la decodifica software ma, aggiungiamo noi, non è la stessa cosa.