Sebbene virtuali, gli elementi (terra, aria, fuoco e acqua) sono importanti nell'irrealtà come lo sono nella realtà. Questi elementi virtuali devono essere integrati con tecnologie che sostituiscano la normale percezione sensoriale: posizionamento spaziale, rilevamento di oggetti, telerilevamento, ecc. Combina tutto questo e avrai un sistema operativo per emulare la realtà nell'irrealtà.

Apple lo costruisce.

La realtà aumentata è ovunque al WWDC22

Il WWDC 2022 non ha visto Apple menzionare gli occhiali per realtà aumentata (AR) su cui tutti pensiamo stiano lavorando.

E mentre la realtà aumentata ha ricevuto alcune menzioni durante il keynote dell'azienda lunedì, non ha davvero evangelizzato la tecnologia. È abbastanza diverso dagli anni precedenti. Nel complesso, l'azienda ha qualcosa da offrire sull'argomento per sei anni, con il CEO Tim Cook che ha affermato: "Siamo a lungo termine nella realtà aumentata, pensiamo che ci siano grandi cose per i clienti e una grande opportunità di business".

Che non abbia detto molto quest'anno è notevole.

Anche se la compagnia potrebbe non aver menzionato molto sul palco, le sessioni di sviluppo che si svolgono durante lo spettacolo raccontano una storia diversa. Sembrano mostrare esempi palesi e nascosti di filosofie e tecnologie per supportare l'AR in quasi tutti i modi.

Anche la capacità di supportare più finestre nelle app Swift UI può essere importante poiché l'azienda si muove verso nuovi modi di interagire con i dati. Questo straordinario strumento di visualizzazione desktop grandangolare basato sulla fotocamera per visualizzare contemporaneamente il viso di un utente e una vista a volo d'uccello del desktop potrebbe essere altrettanto facilmente una punta del proverbiale cappello per nuovi modi di usarlo.

Le tue dita hanno bisogno di una vera tastiera quando puoi averne una virtuale? Quando useremo i nostri Mac come occhiali da sole?

[Leggi anche: Apple chiama Meta per ipocrisia]

Di cosa tratta davvero Apple

Le sessioni di sviluppo del WWDC di Apple sono arricchite da funzionalità per promuovere, attivare o suggerire come Apple sia in una fase avanzata di gettare le basi per l'aumento sulle sue piattaforme. Dai un'occhiata al calendario delle sessioni e troverai le sessioni pertinenti, come ad esempio:

  • Machine learning in Metal per creare esperienze di gioco sempre più realistiche.
  • MetalFX, una potente API per abilitare effetti grafici di alta qualità e prestazioni elevate.
  • In una sessione in ARKit6, gli sviluppatori possono creare esperienze AR renderizzate in 4K HDR per scene ancora più fotorealistiche.

Anche aiutare i computer a capire dove si trovano e cosa possono vedere è una parte essenziale della costruzione della realtà aumentata. RoomPlan mostra come Apple stia costruendo la tecnologia per questo, anche se il numero crescente di categorie comprese dal suo potente strumento di ricerca mostra una crescente comprensione degli ambienti circostanti. LiveText in Video rende ogni parola che puoi digitare sulla fotocamera utilizzabile in tutte le tue app.

Se puoi leggere la commedia, puoi leggere la strada, suppongo.

E c'è di più Dai un'occhiata al crescente raccolto di dati sulla posizione ora disponibili in Maps e MapKit, dove puoi esplorare intere città in 3D dettagliato. Le telecamere LiDAR ti danno profondità. UWB può essere una LAN alternativa e una tecnologia di supporto come Universal Scene Description. Dai un'occhiata a queste sessioni ancora una volta e vedrai che ce ne sono molte che svolgono un doppio compito: supportare le piattaforme esistenti di Apple e supportare quelle che pensiamo stiano lentamente venendo alla luce. .

Più di quanto sembri

Ho solo scalfito la superficie di ciò che possiamo vedere, ma la conclusione è semplice: Apple non è ancora pronta per discutere i suoi piani più ampi, ma al WWDC 2022 sta tranquillamente equipaggiando i suoi sviluppatori con gli strumenti di cui hanno bisogno per creare sempre più sofisticato. Esperienze AR. .

L'attenzione alla percezione intelligente (della macchina) e alla comprensione della realtà immediata attorno al computer è il pezzo più profondo di questo puzzle. Risolverlo consentirà ad Apple di offrire strumenti per sviluppare soluzioni automatizzate per molti ruoli. Quello che potremmo finire per chiamare realityOS per le esperienze dei consumatori potrebbe facilmente diventare un "sistema operativo industriale" per la produzione intelligente. Una volta che hai la percezione, la profondità, la posizione e il riconoscimento degli oggetti, avrai l'opportunità di automatizzare.

Apple ha tutte queste cose e produce anche il silicio per alimentarle.

Sono già andato troppo avanti rispetto alla realtà in cui ci troviamo in questo momento. Ma mentre Apple ha suonato in silenzio sui suoi piani AR durante il suo keynote, scava più a fondo e vedrai che dove conta, nei suoi contatti con gli sviluppatori all'evento, AR e la tecnologia per supportare AR sono molto in voga.

Nel frattempo, l'enigmatico mugnaio di voci Apple preferito da tutti, Ming-Chi Kuo, pensa che l'azienda farà luce sui suoi piani AR in un evento mediatico speciale nel gennaio 2023, 16 anni dopo la presentazione dell'iPhone da parte dell'azienda nel gennaio 2007. che ha una certa risonanza storica e la dice lunga sulla crescente fiducia dell'azienda nella piattaforma che cerca di costruire. A mio avviso, l'azienda dispone già di molte tecnologie di sviluppo per supportare questo passaggio successivo. Hai solo bisogno di un po' più di tempo per farlo bene.

Il motore di innovazione di Apple è ancora "a tutto gas", ha affermato Morgan Stanley. Sono d'accordo.

Seguimi su Twitter o unisciti a me al bar & grill di AppleHolic e ai gruppi di discussione MeWe di Apple.

Copyright © 2022 IDG Communications, Inc.

Condividi questo