En av de bästa aspekterna av ARKit, Apples nya ramverk för att bygga augmented reality-appar, är det faktum att det gör alla de otroligt komplexa tunga lyft som att upptäcka rumsdimensioner, horisontella plan och ljuskällor, vilket frigör utvecklare att fokusera på andra saker.
ARKit analyserar scenen som presenteras av kameravyn i realtid.
Kombinerad med sensordata kan den detektera horisontella plan, såsom bord och golv, samt spåra och placera objekt på mindre funktionspunkter med stor precision.
Och eftersom den använder kamerasensorn kan ARKit exakt uppskatta den totala mängden ljus som finns tillgängligt i en scen för att tillämpa rätt belysning på virtuella objekt.
Först kolla in den här demonstrationen från Tomás Garcia.
Barns sängtidshistorier kommer aldrig att vara desamma i höst!
En annan utvecklare har satt ihop en snabb demo som visar upp sin AI-bot, med namnet “Pepper”.
Enligt videoklippets beskrivning:
Jag har jobbat på en AI-bot ett tag nu. För att vara kort, det är som V.I.K.I i filmen “Jag, robot”. Med hjälp av ARKit kunde jag föra den nära en verklig assistent.
På grund av uppenbara orsaker demonstrerar jag inte hennes funktionalitet i den här videon. Så jag slutade med att visa er hur enkelt och enkelt det är att leva upp 3D-modeller med Apples nya ramverk.
Dessa videor visar tydligt hur enkelt ARKit gör det för utvecklare att matcha skuggorna av sina virtuella objekt till ljusförhållandena i den verkliga världen.
Här är några ytterligare ARKit-aktiverade demonstrationer.
ARKit kräver A9- eller A10-processorer, vilket innebär att ARKit-appar kommer att kräva en iPhone 6s eller nyare eller en av de senaste iPad Pro-modellerna, antingen 9,7-tums eller 10,5-tums.
Om något, dessa videor visar hur enkelt Apple har gjort det att sätta ihop en AR-app. Ser du fram emot ARKit, och varför? Lämna en kommentar nedan för att meddela oss.