>>58
センサーを画素単位で位置制御することで解像度を引き上げるのがピクセルシフト連写なら、その二段くらい先の発展系。
まず大前提としてスマホに使われる処理技術は一眼レフの4周先、ミラーレスの2周先まで抜かれてる。
ここで出すプリ連写もピクセルシフトも、レンズ交換式じゃ一部の最新高級機に部分的に乗せられてるに過ぎない。
AIは単写の画像加工じゃない。再結合。

AIのアルゴリズムは数を重ねることで単写の光学性能を超えて解像度を上げる。
スマホでプリ連写した画像を、AI使ってタイル分割からの補完合成するやり方。
単なる合成と違って複数枚の写真からキレイに写った所だけをピックアップして最適化する。
合成でピクセル増やして解像度の倍加するとこが、光学補完に振り向けられたもの。

複数の写真同士を補完して出力すれば、デジタルズームの画質も向上させるのに使えるし、
レンズだけじゃどうしようもない陽炎や霞み除去にも転用できる。
端的に言うと同じ画素でもモヤ取りして写真が明瞭になる。
これは「撮影一度で光量が少ないなら複数回の露光で増やせばいい」を地で行く理論。
単写のデモザイキングと処理が異なるから、それ由来のノイズも押さえ込める。

最近はステレオカメラとかトリプルカメラで深度検出や情報の複合するのが流行りだが、
Pixel3に至ってはデュアルピクセルセンサー単センサーでその処理をする。
https://webbigdata.jp/ai/post-1956

センサーはたかが画像の入り口でも情報量があるほどAIは最適の結果を送り返せる。
「眼」になるセンサーの技術抜かれることがどれ程深刻か、気付くにも遅すぎるし、知って理解してるのも少なすぎる。