Apple prevede di aggiungere un sensore 3D posteriore a un nuovo iPhone

256

Ingrandisci / Un utente prova le funzionalità in ARKit di Apple.

Citando una fonte a conoscenza dei nuovi iPhone di Apple, Fast Company scrive che Apple introdurrà un array di sensori 3D rivolti all’indietro nei nuovi modelli di iPhone. Apple prevede di acquistare i componenti laser per questo array da Lumentum, la società con sede in California da cui acquista già i laser TrueDepth frontali che si trovano negli iPhone di oggi.

La fonte della pubblicazione afferma che gli ingegneri Apple hanno lavorato sulla fotocamera 3D posteriore per due anni e attualmente è prevista l’inclusione in almeno un modello entro la fine dell’anno. Tuttavia, i tempi potrebbero ancora cambiare.

Apple non è la sola a includere questa funzione nei telefoni di punta del 2020. I nuovi Galaxy S20+ e S20 Ultra di Samsung, annunciati solo il mese scorso, hanno sensori del tempo di volo (ToF) rivolti all’indietro. Sono utilizzati per Live Focus (che è un effetto sfocato opzionale nelle foto) e Quick Measure (che consente agli utenti di misurare gli oggetti di fronte a loro).

Tuttavia, Apple ha fatto molti più progressi nello sviluppo di API e strumenti per sviluppatori di terze parti e per i propri team software da utilizzare per creare nuove esperienze e funzionalità.

Apple ha introdotto l’array TrueDepth frontale simile nell’iPhone X nel 2017. La sua caratteristica principale è Face ID, che scansiona il viso dell’utente per autenticarlo prima di sbloccare l’accesso a file e servizi personalizzati sul dispositivo. Viene anche utilizzato per Animoji e Memoji, avatar animati utilizzati da alcuni nell’app Messaggi.

Tuttavia, esiste un potenziale significativo per la tecnologia che rimane in gran parte non sfruttato. Apple ha fornito agli sviluppatori gli strumenti necessari per utilizzare la funzione TrueDepth nelle loro app. Ci sono state alcune applicazioni, ma si trattava principalmente di espedienti e giochi come Rainbrow di Nathan Gitter.

Apple potrebbe sperare che l’aggiunta di questi sensori sul retro del dispositivo ispiri applicazioni nuove e più utili. E poi c’è l’ovvia connessione di realtà aumentata.

Cupertino ha introdotto ARKit, un insieme di strumenti e funzionalità a disposizione degli sviluppatori per creare app di realtà aumentata su iOS, nel 2017. Ne abbiamo scritto una spiegazione dettagliata nel 2018 dopo l’introduzione di ARKit 2. L’ultima versione è ARKit 3, introdotta insieme a iOS e iPadOS 13 alla fine del 2019. ARKit 3 ha introdotto l’occlusione delle persone, strumenti di acquisizione del movimento integrati, rilevamento di volti multipli e la possibilità per più utenti di lavorare contemporaneamente nello stesso ambiente AR, tra l’altro.

Il CEO di Apple, Tim Cook, ha precedentemente affermato di ritenere che la realtà aumentata a un certo punto sarà un momento spartiacque simile all’introduzione dell’App Store e ci sono molte prove che l’azienda ha lavorato internamente su un prodotto di occhiali AR. All’inizio di questa settimana, 9to5Mac ha affermato di aver scoperto prove di una nuova app AR nel codice iOS 14 trapelato, oltre a indicazioni che un sensore ToF posteriore arriverà anche sui nuovi modelli di iPad Pro. L’app consentirebbe agli utenti di ottenere informazioni preliminari su prodotti e altri oggetti negli spazi circostanti e sarebbe utilizzata sia negli Apple Store che nelle sedi di Starbucks.

Annuncio

Fino a questo punto, le app AR su iPhone hanno fatto affidamento sui differenziali di profondità tra le molteplici fotocamere tradizionali sul retro dei nuovi iPhone per gestire la profondità, ma non è così preciso come consentirebbe questo nuovo array di sensori. Citato nell’articolo di Fast Company, il vicepresidente di Lumentum Andre Wong afferma che le app AR non sono decollate in modo enorme, in parte a causa della mancanza di questa capacità di rilevamento della profondità e di cosa ciò significa per la qualità delle esperienze:

Quando usi app AR senza informazioni approfondite, è un po’ glitch e non così potente come potrebbe essere alla fine… Ora che ARKit e ARCore (di Google) sono entrambi in circolazione da un po’ di tempo, vedrai l’arrivo di nuove app AR fuori che sono più precisi nel modo in cui posizionano gli oggetti all’interno di uno spazio.

L’introduzione di questi strumenti più precisi migliorerà quasi sicuramente l’AR su iPhone, ma probabilmente non è sufficiente per aprire lo spartiacque previsto da Cook. C’è ancora qualcosa di imbarazzante nell’usare le esperienze AR su un telefono e il successo del prodotto degli occhiali potrebbe essere necessario per avviare una corsa all’oro degli sviluppatori.

Nel frattempo, però, Apple sembra rimanere concentrata sull’AR, costruendo funzionalità e tecnologia sia hardware che software che consentono agli sviluppatori di sperimentare e portare nuove idee sull’App Store. Come abbiamo scritto nel nostro esplicativo di ARKit 2, è un gioco lungo: sarebbe necessaria una vasta e raffinata gamma di API e strumenti per facilitare la rapida adozione dell’AR per il prodotto occhiali da parte di sviluppatori di terze parti. Costruire tutto ciò ora sulla piattaforma iPhone dichiaratamente imperfetta per questo scopo significherebbe che Apple potrebbe iniziare a correre quando e se i suoi occhiali finalmente arriveranno sul mercato.

E nel frattempo, i nuovi sensori posteriori abiliterebbero probabilmente alcune nuove funzionalità della fotocamera, che è il principale campo di battaglia in una corsa agli armamenti tra Apple e i suoi concorrenti Android come Samsung.