Apple annoncerede i dag ARKit 4 sammen med iOS 14 og iPadOS 14. Den nye version af ARKit introducerer Location Anchors, en ny Depth API og forbedret ansigtssporing.
Placeringsankre giver udviklere mulighed for at placere AR-oplevelser, såsom kunstinstallationer i naturlig størrelse eller navigationsvejledninger, på en fast destination. Placeringsforankring udnytter data i højere opløsning Apple Maps at placere AR-oplevelser på et bestemt punkt i verden, hvilket betyder, at AR-oplevelser nu kan placeres på bestemte steder, såsom gennem byer eller ved siden af berømte vartegn. Brugere kan flytte rundt på virtuelle objekter og observere dem fra forskellige perspektiver, præcis som virkelige objekter ses gennem en kameralinse.
ARKit 4 udnytter også iPad Pro 's LiDAR Scanner med en splinterny Depth API med avancerede sceneforståelsesfunktioner, der skaber en ny måde at få adgang til detaljeret per-pixel dybde information. Når de kombineres med 3D mesh-data, gør denne dybdeinformation okklusion af virtuelle objekter mere realistisk ved at muliggøre øjeblikkelig placering af virtuelle objekter i deres fysiske omgivelser. Dette kan tilbyde nye muligheder for udviklere, såsom at tage mere præcise målinger og anvende effekter på miljøet.
Endelig er ansigtssporing udvidet i ARKit 4 for at understøtte det frontvendte kamera på alle enheder med A12 Bionic-chippen eller nyere. Op til tre ansigter kan nu spores på én gang ved hjælp af TrueDepth-kameraet til at drive frontvendte kameraoplevelser som Memoji og Snapchat.
Populære Indlæg