新発表のiPhone 11 Proシリーズの新色。正三角形を描くように配置された 3つのレンズは、あたかも1つのレンズであるかのように映像を捉える。
2019年9月に発売されたiPhone 11、11 Pro、11 Pro Maxは、まだその全貌を見せていない。超広角カメラや、新たに搭載されたU1チップは、これまでのiPhoneになかった新しい使い方を切り拓くものだ。これらの機能が本領を発揮し始めたとき、iPhone XS/XR以前の世代のiPhoneからは見えなかった、まったく新しい展望が拓けてくる。

これからのiPhoneの新しい目:超広角レンズ

iPhone 11世代機の最大の特徴は全モデル標準で超広角レンズを搭載したこと。

技術系の記事ではこのレンズを「35mm換算で13mm相当」と紹介している。これはカメラ好きな人を唸らせるくらい広い範囲が写るレンズではあるが、実は今年のトレンドの1つで、他社製スマートフォンでも同様のレンズを搭載するものがいくつか出ている。

面白いのはアップル社の公式ホームページでは、このレンズを「13mm」ではなく「120°視野角」のレンズとして紹介していることだ 

グーグルなどで「120° 視野角」で検索すると、これが多くのVRゴーグルなどで採用されている視界の広さであり、人間が両目で一度に見渡せる範囲と符合することがわかる。

アップル社がARやVRを楽しむためのiPhoneを収めるゴーグルを出すとは思えないが、ティム・クックCEOが、以前からAR技術に強い関心を示していることは本人の口から聞いてよく知っている。

アップル社はiOS 13のリリースに合わせてReality ComposerというARコンテンツをつくるためのアプリの提供も開始しており、今後、iPhoneで撮られる視野の広い写真映像が、アップルの次の戦略への布石となることは十分考えられそうだ。

画像: iPhone 11 Pro Max ミッドナイトグリーン 新発表のiPhone 11 Proシリーズの新色。正三角形を描くように配置された 3つのレンズは、あたかも1つのレンズであるかのように映像を捉える。

iPhone 11 Pro Max ミッドナイトグリーン

新発表のiPhone 11 Proシリーズの新色。正三角形を描くように配置された 3つのレンズは、あたかも1つのレンズであるかのように映像を捉える。

超広角で広がる未来

大事なのはただ超広角レンズが搭載されたことだけではない。この超広角を含む、iPhone 11 Proシリーズの背面に正三角形を描くように配置された3つのレンズが、まるで1つのレンズのように振る舞うほどよく調整されていることだ。

撮影時、画面上に現れるズーム変更リングを回すと、iPhone 11 Proシリーズであればデジタルズームも併せて0.5~10倍まで(11では0.5~5倍)、どこでレンズが切り替わったのかわからないほど滑らかにズームが変わる(被写体との距離や光の当たり方によっては分かるときもあるが)。

iPhone 11の2眼レンズでも同様だ。ちなみに、これまでの2眼iPhoneは広角(標準)+望遠レンズの組み合わせだったが、iPhone 11は超広角+広角(標準)の組み合わせになっている。

人間が2つの目で立体感を得るように、2眼以上のiPhoneには、2つのレンズで同時に撮影することで被写体と背景を区別するポートレート撮影という機能があり、これを使えば後から背景だけにぼかしをかけたりすることができる。

これまでのiPhone X/XS/XRでは望遠レンズで被写体を捉え、広角レンズは立体感を得るために使っていたため、画角(写真に写る範囲)が狭かったが、iPhone 11世代機では広角レンズで被写体を捉え、超広角で立体感を得るため広い画角でポートレート写真が撮影できるわけだ(Proでは従来通りのポートレート写真も撮れる)。

つまりiPhone 11世代では、通常の広角カメラでARなどを利用しているときに、超広角レンズでさらに広い範囲の映像を捉えておいて、立体感を得たり、人物が迫ってくると、その方向を指し示したりといったことも将来可能になるかもしれないのだ。

画像: FOCOSによるポートレート写真解析 FOCOSというアプリを使うと、iPhoneのポートレート写真が被写体と背景をどのように区別して認識しているかを立体的に見ることができる。iPhone 11 Pro Maxで撮影した広角ポートレートと望遠ポートレートを比較してみた。 apps.apple.com

FOCOSによるポートレート写真解析

FOCOSというアプリを使うと、iPhoneのポートレート写真が被写体と背景をどのように区別して認識しているかを立体的に見ることができる。iPhone 11 Pro Maxで撮影した広角ポートレートと望遠ポートレートを比較してみた。
apps.apple.com

複数レンズで同時撮影。撮影後の修正が可能に

ちょっとだけそれを予見させる機能として、iPhone 11には「写真のフレームの外側も含めて撮影」という機能がある。パッとしない名前だがこれが意外に便利だ。広角レンズや望遠レンズで撮影をする際に、選んだレンズで撮影するだけでなく、1段階広角なレンズで周囲の様子も同時に撮影してくれるのだ。

2レンズ同時撮影は、ポートレート撮影機能でも行なっていたが、ただ立体感を得るのにしか使っていなかった。しかし、「写真のフレームの外側も含めて撮影」では、2つの異なるレンズで撮影した(実際には見え方にズレがあるはず)写真を1枚の写真として合成する。

例えば、広角レンズで看板を撮影したつもりが端っこの文字が切れていたことに後から気づいたとしよう。しかし焦る必要はない。写真を表示した状態で「編集」メニューを選ぶとその周囲の様子もちゃんと写っているので、写真の表示される位置を調整して、溢れてしまった文字を写真内に収まるようにしてあげればいい。

iPhone 11は、超広角レンズで撮影しておいて、広角レンズの画角の部分だけを切り出しているのではなく、広角レンズと超広角レンズ(あるいは望遠と広角レンズ)で同時に撮影して2つのレンズの(少しはズレがあるはずの1枚の写真を)1枚の写真として自然に合成しているのだ(なお被写体との距離が近過ぎたりすると自動的に機能が無効になる)。

この機能はiPhone 11やiPhone 11 Proシリーズが、搭載する複数のレンズで同時に撮影した写真をピタリと重ね合わせる能力を持つことを示している。

いや、iPhone 11は実は同時に3つのカメラで、そしてiPhone 11 Proシリーズは4つのカメラで同時に撮影できる能力を持つ証拠もある。誤植ではなく3つと4つである。

どちらのiPhoneも画面側に自撮り用のカメラがついているが、これをあわせた全レンズで同時に映像を撮り、そのうち好きな2つを選んで合成できるFiLMiC Proというアプリのアップデートが遠からずリリースされることが予告されている。

iPhone 11のこの高いリアルタイム画像処理能力と、複数レンズの画像をほぼ完璧に重ね合わせる性能は、周囲の空間にある物体との距離感を正確に認識して、より高度なAR機能を提供する上でも実力を発揮してくれるかもしれない。ちなみにアップルは、昨年からCore Depthという被写体との距離感を認識するためのAPI(開発者がアプリ開発に用いることができるOS搭載技術)の提供を開始している。

This article is a sponsored article by
''.