iPhone 14、Plus、Pro、Pro Maxのカメラを解説:Quad PixelセンサーとPhotonic Engineは、まさにヘッドターンを約束するものです。

iPhone 14、Plus、Pro、Pro Maxのカメラを解説:Quad PixelセンサーとPhotonic Engineは、まさにヘッドターンを約束するものです。

  • 1 読む時間
  • 木曜日, 9月 15, 2022

    それは、ここです。毎年この時期になると、このブランドの携帯電話が好きなユーザーには、アップルの新しいスマートフォンが時間通りに到着します。もう一度、過去数週間にわたって生産されている多数のリークは、噂はいくつかの驚きを得ることから私たちを防止していないがクパチーノ ベースの会社はちょうど提示されている新機能の良い部分を予想している。

    この記事で私たちの興味を引くのは、新しいiPhone 14の写真機能です。予想通り、この分野では、昨年のiPhone 13が私たちに提供したものを参考にすれば、合理的に連続した性質を越えて調査する価値のある、非常に興味深い新機能がいくつか用意されています。これまで以上に質の高い写真付き携帯電話が並ぶ市場で、アップルが扱う端末の賭けである。

    iPhone 14の写真ハードウェア、虫眼鏡で見る

    この新しいスマートフォンの特徴を正確に把握するためには、iPhone 13の写真ハードウェアの最も重要な特徴を確認することで、少し振り返って文脈を把握するのがよいでしょう。昨年モデルは、1200万画素のセンサーと開放F値2.2のレンズが連動しているのが特徴です。

    iPhone 14の前面カメラセンサーも1,200万画素ですが、これらの端末でAppleは、それが共存する光学系のアーキテクチャに大きな変更を導入することを選択しました。6枚構成で絞り値はF1.9なので、実際にはiPhone 14の方が明るくなるはずです。また、理論的には、より均一な背景のボケを実現できるはずですが、これは新しいiPhone 14sに搭載されたTrueDepthカメラを試してみるまでわかりません。

    iPhone 14および14 Plusのメインカメラは、1200万画素のセンサーと7枚構成のF1.5開口レンズが連動しているのが特徴です。

    続いて、背面カメラについて説明します。iPhone 14と14 Plusは、メインユニットと超広角ユニットという、まったく同じセットアップになっています。iPhone 14 ProとPro Maxでは、メインカメラである超広角ユニットと、焦点距離の異なる2つの望遠レンズを共有している点は全く同じです。しかし、そのうちの1つ、2倍率のものは、実はメインカメラの光学系を使い、センサーの中央のフォトダイオードのみを使用しています。詳しくは後述します。

    iPhone 14および14 Plusのメインカメラは、1200万画素のセンサーと7枚構成のF1.5開口レンズが連動しているのが特徴です。iPhone 13も1200万画素のセンサーに頼っていますが、その光学系は新しいiPhone 14と14 Plusのものよりも若干明るさが劣ります(絞り値はF1.6です)。しかし、さすがにこのカメラには、iPhone 14、13ともに光学式センサーシフト手ぶれ補正が搭載されています。

    一方、iPhone 14および14 Plusの超広角カメラは、120度の視野を実現する5枚構成のF2.4開口レンズと連動する1200万画素のセンサーに依存しています。興味深いことに、iPhone 13の超広角ユニットの機能は基本的に同じなので、一見するとこのカメラは新しいiPhoneに大きなイノベーションをもたらしたようには見えません。

    iPhone 14 ProとPro Maxに搭載されたQuad Pixelセンサーは、Appleによると、同等のiPhone 13に比べて65%大きく、49%明るいとのことです。

    次に、iPhone 14 ProとPro Maxのリアモジュールに搭載されたカメラについて説明します。本体には、新たに4800万画素のQuad Pixelセンサーと1.22 µm受光素子を搭載し、4個1組で2.44 µm受光素子として動作させることが可能です。iPhone 13 ProとPro Maxのメインカメラは、従来のアーキテクチャの1200万画素センサーを搭載しているので、新しいiPhone 14sは、書類上、この部分の自由度が高く、さらに高画質になるはずですが、これは詳しく見たときに確認する必要がありますね。

    また、より意欲的なiPhone 14sのメインカメラの光学系は、7枚構成(その中でも最も複雑)で、絞り値はF1.78であることも特筆すべき点です。興味深いことに、iPhone 13 ProおよびPro Maxのこのカメラの光学系はより明るい(F1.5)ですが、この違いはiPhone 14 ProおよびPro MaxのQuad Pixelセンサーの物理特性によって十分補われるはずで、Appleは、同等のiPhone 13より65%大きく、49%明るいとしています。この点については、実際に端末を手に取り、じっくりと検証してみたいと思います。

    iPhone 14 ProとPro Maxの超広角カメラには、Appleのエンジニアが選んだ12メガピクセルのセンサーが、絞り値F2.2の6枚構成の光学系から届けられる光を受け取ります。このカメラをiPhone 13 ProとPro Maxの同等のユニットと比較すると、そのセンサーは同じ解像度を持っていますが、後者の2つの携帯電話の光学系は、もう一度、より明るい(F1.8)ことがわかります。Appleは、iPhone 14 ProとPro Maxに搭載された超広角カメラが、先代モデルに搭載された同等のユニットと比べて薄暗い場所で3倍の光を集めることができると約束していますが、これはセンサーが同じ解像度であっても、その表面積がかなり大きくなるはずであることを反映しています。

    iPhone 14 ProとPro Maxには、昨年の携帯電話にはなかった、興味深い光学2倍ズームを実現するために設計された第2の望遠レンズが搭載されています。

    もちろん、iPhone 14 ProとPro Maxが提供する望遠レンズも見逃せません。1,200万画素のセンサーと6枚構成のF2.8アパーチャーの組み合わせで構成されています。光学ズームは3倍です。iPhone 13 ProとPro Maxの同等のカメラは、これらの同じ数字で説明されていますが、iPhone 14 ProとPro Maxは、昨年の携帯電話にはない切り札、興味深い2倍の光学ズームを実現するために設計された第2の望遠レンズを持っています。

    興味深いのは、先ほども少し触れましたが、この第2望遠レンズはメインカメラのQuad Pixelセンサーの中央のフォトダイオードを選択して実装されており、この使用シナリオではこのセンサーの本来の4800万画素が1200万画素に縮小されることです。そして、当然のことながら、2倍ズームに頼るときの光学系はメインカメラのものなので、開放F値はF1.78です。この2倍望遠レンズがどのような画質を実現するのか、また、その期待に本当に応えられるのか、iPhone 14 Proをじっくりと観察してみたいものです。

    Appleは、iPhone 14 ProおよびPro Maxのリアモジュールに収納されたすべてのカメラが、iPhone 13 ProおよびPro Maxに搭載された同等のユニットよりも明るいと主張しています。そして、もしそうであれば、この改善は主にセンサーサイズが大きくなった結果であると考えられます。なぜなら、これまで見てきたように、新しいiPhoneではメインカメラと望遠レンズに連動する光学系が明るさを失っているからです。

    いずれにせよ、興味深いのは、Appleによると、iPhone 14 ProとPro Maxは、メインカメラ使用時には周囲の光が少ない状態で2倍の光を集め、超広角レンズを使って撮影すると3倍の光を集め、さらに専用の望遠レンズ(これまで見たように、光学3倍ズーム)を使用すると再び2倍の光を集められるということです。競合他社のカメラと本当に同等なのか、実際に試してみるのも面白いでしょう。

    フォトニックエンジンとディープフュージョン:iPhone 14の写真ソフトウェアの中核をなす。

    ここまで、iPhone 14に搭載されたカメラのハードウェアについて見てきましたが、写真を生業とするすべてのスマートフォンメーカーが例外なく提供する、もうひとつの基本レシピである「コンピュテーショナル・フォトグラフィー」については、まだ掘り下げていませんでした。そしてまた、Appleがこの分野で約束していることは、良いことだと思います。最新の携帯電話では、フォトニックエンジンと呼ばれる革新的な技術を導入しており、これはディープフュージョンの処理エンジンと連動するソフトウェアコンポーネントにほかなりません。

    フォトニックエンジンは、圧縮アルゴリズムが介入する前に、使用しているカメラのセンサーで収集された情報を受け取ります。

    大まかに言うと、圧縮アルゴリズムが介入する前に、使っているカメラのセンサーが収集した情報をフォトニックエンジンが受け取ります。これにより、すべてのカメラの低照度性能が向上し、ディテールの再現性とノイズレベルの低減が可能になります。理論的には色調の再現性も向上するはずですが、これもAppleの言うように本当にそうなのか、慎重に検証していく必要があります。

    フォトニックエンジンは役目を終えると、集めた情報をディープフュージョンアルゴリズムに渡します。異なる露光時間で撮影された複数の画像から最適な画素を特定し、理論上、全体として最高の画質を実現する1枚の写真に組み立てるソフトウェアコンポーネントです。Appleの戦略は、Google、Huawei、Samsungなど、他のメーカーがより洗練されたスマートフォンで採用しているものと大きく異なるものではないので、2023年に写真という職業を持つ最高のモバイルはどれなのか、興味深いところである。

    新しい4800万画素のクアッドピクセルセンサーとProRAWモードの組み合わせは、編集段階で非常に興味深い柔軟性と創造性を与えてくれるのです。少なくとも、そうあるべきでしょう。実際、アップルはこの分野で、画像の鮮明度を上げ、同時にノイズを減らすことができる新しい自動学習モデルを開発したことを約束しています。

    この記事の目的は、最初の行から予想していたように、新しいiPhone 14の写真性能の調査であり、動画撮影の能力ではありません。もちろん、この利用シーンでの性能は、じっくりと分析する機会があれば、検証していきます。シネマモードでは、4K HDRで24フレーム/秒で記録し、アクションモードでは、Appleによると、このブランドがこれまでに開発した中で最高の手ぶれ補正を実現しています。もちろん、私たちはこれらの機能をレビューで試してみるつもりです。

    詳細情報: アップル

    comments powered by Disqus