ARKit 2.0 のその先
今までの流れ。
ARKit 1.0 で6DoF のポジショントラッキングと水平の平面認識。
ARKit 1.5 で水平の平面認識と平面の詳細形状の認識、画像認識、顔と表情認識。
ARKit 2.0 で物体認識と物体の特徴点のスキャン、画像認識の強化、表情認識の強化、環境マップテクスチャの作成、近隣の特徴点を取得しそれを元に仮想空間の復元と共有。
という感じである。
2.0 の機能からすると環境マップはリアルさを求めた流れだが、物体や画像のトラッキングや仮想空間の復元は明らかにコミュニケーションツールとしての流れだろう。
現状、仮想空間の共有として最も楽な閲覧環境はメガネ的なデバイスだと思われるので、いくつかの問題が解決されれば Apple もこのタイプの商品を出すと思っている。
現実的な方法を考えると単体でメガネとして動くものではなく、Apple Watch のような iOS を母体としたものになるのだろう。
そして、iPhone、Apple Watch や画像、物体認識がグラスのコントローラーやトリガーとして AR のインタラクションを起こす装置になると予想する。
Apple が ARKit で次に実装するだろうと思う機能は現実世界での遮蔽物の判定だろう。
現状のワールドマップのマッピングから深度情報を取得すれば、画像ベースで遮蔽物の判定はできるし、多分最終的には3Dのジオメトリ張りそうな感じはある。
もうひとつは、現実世界での物体のトラッキング。
現状のトラッキングは固定されたもので行うが、2.0 と画像認識のように動いても対応できるもの。
例えば、手の動きに合わせてトラッキングしアンカーを配置し追従する。
ARKit は直接的には関係無いのだが、この先eGPU の無線化もあるとは思っている。
もし、無線で eGPU が動作するようになるのなら、AR で事前に処理した映像を端末にかえすことができ、色々な用途に使用できる。
iOS 12 ではメジャーのアプリが標準でインストールされる。
これまでの AR は驚きを与えるものだったが、これからは生活を豊かにするためのツールとしてアプリの展開をしてゆくのだろう。
また、Apple は古くから 3DCG のモデリングツールをつくっていた Stuart Ferguson を招き入れている。
古くは LightWave 3D のモデラー、Modo の Luxology のファウンダー、Foundry に買収された後に技術責任者となっている人である。
https://www.linkedin.com/in/stuart-ferguson-34a5268/
簡素に扱えるなんらかのモデリングツールなのか、フォトグラメトリなのか、Xcode の Scene Editor が拡張されるか、どうなるかはわからないが面白いものが出てきそうな感じはある。
今後も Apple は AR を含めた 3DCG 分野に力を入れていくのだろう。