【iPhone X】のFace IDはKinectベース、Appleは5年以上も前から3Dセンサーを準備

  • ブックマーク
  • Feedly
  • -
    コピー

Appleが発表した新型iPhoneのうちの1つ、フラッグシップモデル【iPhone X】で、最も多くの人の注意を惹いたのはやはり3Dセンサー機能でしょう。この機能によって【iPhone X】はAR(拡張現実)機能を実現し、また顔認証システム「Face ID」も実現しました。

実は何年も前に、Googleは既にARのテクノロジーの潜在能力に気づいていました。2013年にはメガネ型デバイスのグーグルグラス(Google Glass、現在は開発・販売中止)を、そして2014年にはスマートフォンにAR機能を実現するためのProject Tangoを発表していたことがそれを証明しています。

そんなわけで、多くの人はAppleがGoogleのProject Tangoからアイデアを盗んだと考えているかもしれません。というのも、市場に出ているたった2種類のProject Tangoのスマートフォンに配備されているプロレベルのセンサーは、【iPhone X】の”前髪”部分のように見える深度センサーやカメラなどの一群によって構成されているシステムとほぼ同様のものに見えるからです。更に、Googleは最近ARCoreを発表した際に、ARCoreは3年前のProject TangoによるモバイルAR技術の成果の1つだとしていました。

しかし実際、Appleの3Dセンシング技術に対する野心は、GoogleのProject Tangoよりももっと早くからあったようです。実はAppleには5年以上前から、3D測定テクノロジーをiPhoneの上で実現する計画があったのです。

2013年11月に、Appleは公式に、イスラエルの3Dセンサー技術の開発を主な業務内容とするベンチャー企業、PrimeSense社を買収したことを発表します。当時の報道では、Appleの同社の買収価格は3.6億ドルとされていましたが、Appleはその後買収価格を公開しませんでした。PrimeSense社は各種の3Dセンサー技術を主に開発しており、Appleは買収発表後すぐにPrimeSenseの以前のオフィシャルサイトそのものとそれに関する大量のPR映像なども含む業務関連資料をネット上から消し去りました。しかしPrimeSenseの過去のコンセプト動画の一部はまだネット上で見つけることができます。

PrimeSense社が最も世に知られるようになったのは、やはりマイクロソフト(Microsoft)社のXboxのオプションとして用意されたKinectのために3Dセンサーを作ったことによるものでしょう。Kinectで使用された多くの技術は、基本的にPrimeSenseの技術に基づいて設計され製造されたもので、カメラや赤外線投影機もそれに含まれます。これらのセンサーは非常に高い精度と解像度を持っており、Kinectにプレイヤーの運動を追跡させ、また顔を認識させることもでき、更にプレイヤーの心拍さえ測ることもできました。

Kinectのこれらの1セットは、【iPhone X】に搭載されている深度センサーシステムと似ています。実はAppleは買収したPrimeSenseから獲得した技術を、その寸法を小さくして【iPhone X】に詰め込んだだけともいえます(もちろんもともとKinect大のものを【iPhone X】のような小さなデバイスに詰め込むこと自体がとんでもなくすごいことなのですが)。これらの一連の開発工程の中で、Appleは間断なく関連特許を出願し、そして取得してきました。例えば2016年7月に取得した構造化光投射に関する特許は、初めは2014年6月にPrimeSenseのエンジニアによって出願されたものでした。そして今から1ヶ月ほど前に、Appleは深度映写に関する特許を取得していますが、これも最初は2013年2月にPrimeSenseによって出願されたものだったのです。

これらのことは、Appleは2013年11月になってやっとPrimeSenseの買収を公式に認めましたが、実はもっと早く3Dセンシング技術について考慮していたことを意味します。もちろん、企業買収(M&A)というものはある程度長い時間をかける必要があります。Appleはまず3Dセンシングのアイデアを出し、そしてその将来性について評価をし、その上でそのアイデアに沿った最高の技術を持っている会社を物色します。相手先が見つかったら、条件を提示して交渉し、そしてデューデリジェンスを行うなど買収に必要な業務を執行します。これらの作業は、少なくともAppleがPrimeSense買収を発表した2013年よりも1年以上早い2012年には始まっていたと思われ、もしかしたらもっと早くから行われていた可能性もあります。

AppleがPrimeSense社を買収した目的は、その3Dセンシング技術をiPhoneに入れるためだったのは必然です。2012年にAppleは3.56億ドルでAuthenTec社を買収したときに、大多数の人がAppleは指紋認証システム(後にTouch IDと命名)をiPhoneやMacなどの自社製品に採用することを想像できたはずです。そしてその大方の予想通り、Appleは次の年にTouch IDを搭載した【iPhone 5s】を発表します。では顔認証のFace IDはなぜ今年の【iPhone X】まで待たなければならなかったのでしょうか?

なぜなら、指紋識別技術は、主にハードウェア機能に基づいたものですが、3D顔識別技術は、ハードウェアの基礎の上により複雑なソフトウェアの準備が必要で、より長い時間の開発が必要だったからです。もちろんハードウェアそのものの要求が高いことも大前提となります。Appleが待っていたのは【iPhone X】のハードウェアの条件、すなわちベゼルレスのディスプレイの実現とA11 BIONICチップによるニューラルネットワークエンジンの実現だったのかもしれません。

なぜiPhoneにとってFace IDの導入が1つのマイルストーンになったかというと、それはAppleがその3Dセンシング技術の研究開発に5年以上の時間をかけ、現在になってようやくその実を結んだからです。ここまで複雑な3Dセンシング技術は、競争相手にとっては技術の壁が何層もあるようなもので、短時間内ではそれを解決できないものでした。またもしハードウェア的に実現できたり実際にアプリの中に落とし込むには、コストを下げるのが難しかったのです。Appleはそれを成し遂げました(ただし後者については【iPhone X】の過去最高値の値段設定を見る限りAppleにしかできないことで、本当の意味でコスト削減ができたかどうかは評価が分かれるところと思いますが)。

当然ながら、深度センサーカメラと関連のソフトウェア技術について、Appleが買収した企業はPrimeSense社1社だけではありません。2015年に買収したAR企業のMetaio、顔部分のデータ補足に特化しているFaceShift社、そして昨年買収したAI(人工知能)専門のEmotient社など。。多くのAIとマシンラーニングに関する会社がAppleに買収され、その懐に入っています。

Appleは毎回新しいiPhoneに新たな技術を導入する際に、全ての項目について長い企画時間を設けます。最近Appleのハードウェア技術担当上級副社長のジョニー・スルージ(Johny Srouji)SVPが、Appleは社内のチップ開発を3年前から始めることを明かしています。つまり3年前、A8チップを搭載したiPhone 6が発表されたときに、Appleは既に【iPhone X】や【iPhone 8シリーズ】用のA11 BIONICチップの開発を始めていた、ということになります。そしてこのことは、Appleが5年という長い時間をかけて開発したFace IDの深度センサーカメラシステムとARテクノロジーにも同様に当てはまるのでしょう。

ただし、Appleはこれまで取得した特許を全て製品に使うわけではないのと同じように、早めに開発していた先進的な技術が、全てが必ずしも正しい方向であるとは限らないともいえます。また、Face IDも万能ではないように、早めに準備していたことが必ずしも完璧な状態で実現するとも限りません。

Face IDはコアテクノロジーとして華やかにデビューしましたが、その背景では無数のアイデアや特許がボツになっているのでしょう。

記事は以上です。

(記事情報元:Patently AppleTech CrunchThe Verge

Visited 259 times, 1 visit(s) today
  • ブックマーク
  • Feedly
  • -
    コピー

この記事を書いた人