Apple Nyheder

Apple annoncerer ARKit 4 med placeringsankre, dybde-API og forbedret ansigtssporing

Mandag den 22. juni 2020 kl. 16:00 PDT af Hartley Charlton

Apple annoncerede i dag ARKit 4 sammen med iOS 14 og iPadOS 14. Den nye version af ARKit introducerer Location Anchors, en ny Depth API og forbedret ansigtssporing.





ARKit 4
Placeringsankre giver udviklere mulighed for at placere AR-oplevelser, såsom kunstinstallationer i naturlig størrelse eller navigationsvejledninger, på en fast destination. Placeringsforankring udnytter data i højere opløsning Apple Maps at placere AR-oplevelser på et bestemt punkt i verden, hvilket betyder, at AR-oplevelser nu kan placeres på bestemte steder, såsom gennem byer eller ved siden af ​​berømte vartegn. Brugere kan flytte rundt på virtuelle objekter og observere dem fra forskellige perspektiver, præcis som virkelige objekter ses gennem en kameralinse.

ARKit 4 udnytter også iPad Pro 's LiDAR Scanner med en splinterny Depth API med avancerede sceneforståelsesfunktioner, der skaber en ny måde at få adgang til detaljeret per-pixel dybde information. Når de kombineres med 3D mesh-data, gør denne dybdeinformation okklusion af virtuelle objekter mere realistisk ved at muliggøre øjeblikkelig placering af virtuelle objekter i deres fysiske omgivelser. Dette kan tilbyde nye muligheder for udviklere, såsom at tage mere præcise målinger og anvende effekter på miljøet.



Endelig er ansigtssporing udvidet i ARKit 4 for at understøtte det frontvendte kamera på alle enheder med A12 Bionic-chippen eller nyere. Op til tre ansigter kan nu spores på én gang ved hjælp af TrueDepth-kameraet til at drive frontvendte kameraoplevelser som Memoji og Snapchat.