Några tippande utvecklare har faktiskt använt ansiktsdata som samlats in från iPhone X: s TrueDepth-kamerasystem för att skapa 3D-modeller av deras ansikte. Man kunde till och med 3D skriva ut ansiktet, dock med tveksamma resultat.
I en kort video kunde konstnären Elisha Hung, visuella effekter, använda de data som samlats in från TrueDepth-kameran för att skapa ett 3D-flytande huvud, som kunde efterlikna hans rörelser. Han använde iPhone Xs kamera, använde sedan ARKit och Xcode för att hämta informationen och senare omvandla den till full 3D-renderingar.
Även om det faktiskt ser ganska bra ut, krävs det en artist av visuella effekter för att uppnå detta resultat. De faktiska bilderna som samlas in av iPhone-kameran är mycket mindre exakta.
Den samlar inte tillräckligt med poäng för att göra en så realistisk modell, så det kräver mycket effekt att utjämna data till något som ser mer ut som ett ansikte. Brad Dwyer, grundare av spelföretaget Hatchlings, visade hur en verklig ram ser ut som samlad av TrueDepth-kameran.
Här är en ny skanning. Städat upp lite. Förmodligen en bättre representation av vad den "ser"
Jag bör notera att det här är en ram från #TrueDepth-kameran. Du kan förmodligen prova flera ramar för att skapa en bättre djupkarta. pic.twitter.com/yweJ7hBJ1U
- Brad Dwyer (@braddwyer) 15 november 2017
I den här formen är det en hel del blockierare.
Fortfarande har de visat vilka imponerande feats som kan uppnås med den senaste tekniken inbyggd i Apples telefoner. Eftersom utvecklare kan dra nytta av dessa API: er kommer det att vara intressant att se vad utvecklare gör med detta i framtiden.