LightroomCC Mobileで長時間露光撮影ができるようになっていたので試してみた。
長時間露光撮影といっても、5secまでという制限あり。
また、実際には長時間シャッターを開けるようになるわけではなく、設定した時間連射し続けて、撮影終了後に撮影写真を合成する仕組み。この合成処理がけっこう複雑なことをやっているようで、けっこう以上時間がかかる。1枚あたり数分待つ感じ。
撮影結果を見てみると、合成の際には、手ブレ写真が取り除かれたり、写真ごとの位置ずれは調整されるているっぽい。
何気にRAW撮影可能なのが嬉しい。
・・・
撮影結果はかなり良い感じで、ふつうにシングルショットで撮った場合に比べて、ダイナミックレンジが改善され、ノイズも劇的に減るので現像処理が捗る。*1
なにより真っ暗な状況でも、スマホでふつうに写真が撮れるようになったのがGOOD。
これでまた、一眼を持ち歩く必要性が減った。*2
・・・
Pixel3の Nightsightも、だいたい同じような合成処理をやってるんだったっけなぁと、思ったのだけど、てきとうに調べてみたところ
LightroomCCのわりとプリミティブな合成処理に加えて
- 連写時にセンサをサブピクセル単位でシフトさせて、各画素RGB全色のデータを取得
- AIでいい感じに色を復元(RAWからJPEG現像)する
という合わせ技で、相当いい感じに合成するようで、Googleの技術力ほんまパネェなと思った。
物理(光学)の原理や、カメラの動作原理、加えて、ハードウェアの仕様を理解した上で、『どうすれば、ハードウェアの限界を突破できるか』を理詰めで考えてから、解決策をソフトウェアで実装している感があって好き。*3
ということを書いていたらPixel3を使ってみたくなった。
基本的にAndroid端末ってAppleをベンチマークにして追従している感があるけど、Googleは理詰めで違う戦略をとっていて面白いと思う。
・・・
それはそうと、Pixel2のときは、シングルレンズだけど、センサが特殊(1画素が2つの受光部を備える特殊仕様)で、深度を取得可能(それでいい感じにボケを生成)って話だった気がしたけど、
Pixel3では汎用のSONYセンサ使ってるって話だし、深度なしでAIでボケを生成って感じなので、あれはイマイチだったってことなのだろうか。
参考記事
グーグルは「Pixel 3」でソフトウェアの威力を見せつけた:ハンズオンレヴュー|WIRED.jp
Pixel 3のカメラ機能まとめ:4眼とかにするんじゃなくて、AIをフル活用するスタイル | ギズモード・ジャパン
Pixel 3のカメラのすごい機能を徹底解説 | telektlist
Pixel 3の「オンデバイスAI」は何をしているのか、Googleが解説~「世界中のスマホが自分を強化する」新技術も - Engadget 日本版