Apple、ロケーションアンカー、深度API、改良された顔追跡を備えたARKit 4を発表
Apple は本日、iOS 14 および iPadOS 14 とともに ARKit 4 を発表しました。ARKit の新しいバージョンでは、Location Anchors、新しい Depth API、および改善された顔追跡が導入されています。
ロケーション アンカーを使用すると、開発者は等身大のアート インスタレーションやナビゲーション案内などの AR エクスペリエンスを固定された目的地に配置できます。ロケーション アンカリングは、
Apple マップ
の高解像度データを活用して、世界の特定の地点に AR エクスペリエンスを配置します。つまり、都市全体や有名なランドマークのそばなど、特定の場所に AR エクスペリエンスを配置できるようになります。ユーザーは、実際のオブジェクトをカメラのレンズを通して見るのとまったく同じように、仮想オブジェクトの周りを移動し、さまざまな視点から観察することができます。
ARKit 4 はまた、高度なシーン理解機能を備えた新しい深度 API を備えた iPad Pro の LiDAR スキャナーを活用し、ピクセルごとの詳細な深度情報にアクセスする新しい方法を作成します。この深度情報を 3D メッシュ データと組み合わせると、物理的環境内に仮想オブジェクトを瞬時に配置できるようになり、仮想オブジェクトのオクルージョンがより現実的になります。これにより、より正確な測定を行ったり、環境に効果を適用したりするなど、開発者に新しい機能を提供できます。
最後に、顔追跡は ARKit 4 で拡張され、A12 Bionic チップ以降を搭載したすべてのデバイスで前面カメラをサポートします。 TrueDepth カメラを使用して最大 3 人の顔を一度に追跡できるようになり、Memoji や Snapchat などの正面カメラ エクスペリエンスを強化できるようになりました。










