LightroomCC Mobileの長時間露光撮影と、Pixel3 Nightsightの話

f:id:d_ymkw:20181207175143j:plain
目視だと、電飾された木の足元の植物の色は黒く見えていた

LightroomCC Mobileで長時間露光撮影ができるようになっていたので試してみた。

長時間露光撮影といっても、5secまでという制限あり。

また、実際には長時間シャッターを開けるようになるわけではなく、設定した時間連射し続けて、撮影終了後に撮影写真を合成する仕組み。この合成処理がけっこう複雑なことをやっているようで、けっこう以上時間がかかる。1枚あたり数分待つ感じ。

撮影結果を見てみると、合成の際には、手ブレ写真が取り除かれたり、写真ごとの位置ずれは調整されるているっぽい。

何気にRAW撮影可能なのが嬉しい。

・・・

撮影結果はかなり良い感じで、ふつうにシングルショットで撮った場合に比べて、ダイナミックレンジが改善され、ノイズも劇的に減るので現像処理が捗る。*1

f:id:d_ymkw:20181207180006j:plain
朝6時くらい。道路側は目視では真っ暗だった。

なにより真っ暗な状況でも、スマホでふつうに写真が撮れるようになったのがGOOD。

これでまた、一眼を持ち歩く必要性が減った。*2

・・・

Pixel3の Nightsightも、だいたい同じような合成処理をやってるんだったっけなぁと、思ったのだけど、てきとうに調べてみたところ

LightroomCCのわりとプリミティブな合成処理に加えて

  • 連写時にセンサをサブピクセル単位でシフトさせて、各画素RGB全色のデータを取得
  • AIでいい感じに色を復元(RAWからJPEG現像)する

という合わせ技で、相当いい感じに合成するようで、Googleの技術力ほんまパネェなと思った。

物理(光学)の原理や、カメラの動作原理、加えて、ハードウェアの仕様を理解した上で、『どうすれば、ハードウェアの限界を突破できるか』を理詰めで考えてから、解決策をソフトウェアで実装している感があって好き。*3

ということを書いていたらPixel3を使ってみたくなった。

基本的にAndroid端末ってAppleをベンチマークにして追従している感があるけど、Googleは理詰めで違う戦略をとっていて面白いと思う。

・・・

それはそうと、Pixel2のときは、シングルレンズだけど、センサが特殊(1画素が2つの受光部を備える特殊仕様)で、深度を取得可能(それでいい感じにボケを生成)って話だった気がしたけど、

Pixel3では汎用のSONYセンサ使ってるって話だし、深度なしでAIでボケを生成って感じなので、あれはイマイチだったってことなのだろうか。

参考記事

グーグルは「Pixel 3」でソフトウェアの威力を見せつけた:ハンズオンレヴュー|WIRED.jp

Pixel 3のカメラ機能まとめ:4眼とかにするんじゃなくて、AIをフル活用するスタイル | ギズモード・ジャパン

Pixel 3のカメラのすごい機能を徹底解説 | telektlist

Pixel 3の「オンデバイスAI」は何をしているのか、Googleが解説~「世界中のスマホが自分を強化する」新技術も - Engadget 日本版

*1:この辺、合成した場合に数学的に当たり前に得られる結果ではあるのだけど

*2:現状、まだまだスマホは万能ではないので一眼を手放すことはないけど、『一眼持ち出すほどじゃないけど、チョットきれいに撮りたい』ってときにスマホだけで撮影できるのは個人的に嬉しい。特に、ロードバイクでのサイクリングが捗る。

*3:こう、『(物理学やハードウェアのことはよくわからないけど、)ソフトウェア的に画質を良くする処理をいろいろ詰め込んでみました』的なノリとは一線を画していて良い。