20世紀初頭、アインシュタインの光電効果の解明から始まって光の波動・粒子の二重性が明らかになり、
プランクによる黒体輻射の定量的解明が量子力学の幕開けとなった。学部学生のときには、このような
前期量子論とよばれる科学史を何度も読み返して、煌くような物理学者達の成果をまぶしく感じたものだった。
ニュートンがプリズムを使って太陽光を分光したのを嚆矢とする分光学は、量子力学の発展に大いに
寄与した。やがてレーザーが発明され、1970年代からは、単色性に優れたレーザーを光源とした
レーザー分光学が華々しい成果を挙げた。ちょうど70年代に学生になったわたしは、卒業研究には
アルゴンレーザーの発信線を光源とした有機分子の結晶の前期共鳴ラマン分光学を課題として与えられた。
ラマン散乱は、物質による光の非弾性散乱に相当し、あてた光の波長とは違う波長の光が散乱されて
検出される。それはかなり微弱な光であって、当時もいまももっとも高感度な光検出器であっても
光を一個、二個と数えられるようなほど微弱であった。暗い実験室で、光子計数器の数字をみながら
本当に光は粒子なんだな、と実感したのだった。
話は飛ぶが、デジタルカメラの受光素子は、CCD や CMOS であっても、それは半導体素子であって
当たり前だが光検出のメカニズムは純粋な物理現象である。もっとも簡単な半導体光検出器は
LED とは逆の機構による光検出ダイオードであり、半導体ギャップのエネルギーを越える光の
エネルギーを吸収して逆電圧バイアスによる電流に変換する。しかし、写真のフィルムのように
光量を記憶することはできない。現在のデジタルカメラに使われている素子は、フィルムと同じように
当たった光の量を電荷の量として記憶できるようになっている。その量は、光を1個2個と数えられる
ほど高感度ではなく、アナログの量として記憶される。
さて本題であるが、受光素子が記憶しているアナログ量としての光強度をデジタル化しなければ
ならないわけであるが、現在のパソコンのディスプレイやプリンタは、RGB 各8ビットを標準と
しているので、通常8ビットを越える10ビット、12ビット、14ビットなどに変換して
RAW データとしているようである。ところで、先述のように純粋な物理現象として記録される
光の量は素子が決まればそれで決まり、アナログ・デジタル変換の仕方には依存しない。
したがって、12ビットに変換しようが、14ビットに変換しようが素子のダイナミックレンジが
変化するわけではない。たんに強度の階調をどれだけ滑らかにデジタル化するか、が違うだけである。
実用的なダイナミックレンジは、強強度の場合は飽和、弱強度の場合はノイズによって
これまた素子により純粋に物理的に決まっている。まぁ、ノイズリダクションをかけて
暗いほうのダイナミックレンジを稼ぐこともできるだろうが、たかが知れている。
ところでよく聞く話は、アナログ・デジタル変換の精度とダイナミックレンジを混同して、
jpeg 撮ってだしより、12ビットRAW の方が4ビット分、露出にして±2EV分だけ
ダイナミックレンジが大きいので、RAW 1枚からの HDR は、AEB ±2EV jpeg に相当する、
という話である。これは、まったくの間違いである。私見ではノイズが少ない素子であっても
8ビットのヒストグラムの倍以上のレンジを実用的なダイナミックレンジとして持つ素子は
現在でもない、と考えている。言い換えれば、jpeg撮ってだしの8ビットヒストグラムの
半分くらい、8.5ビットくらいではないかと思われる。それでも RAW 現像の方が
レンジを稼げるのは明らかではあるが、倍のレンジということはない。
以上より、語義矛盾である単写からの HDR ということは、事実上も間違いである。
レタッチ、現像手段としてトーンマッピングを使うことは、それなりに意義があるし
実際、面白い結果をたくさん見ることが出来る。しかし、それを HDR というのは
間違いである。
わたしはほとんどの場合、AEB ±2EV jpeg 3枚で撮影しているが、一つにはカメラ内現像がその
カメラにとって最適であること、4EV のダイナミックレンジに対して、3枚をRAW で撮っても
明撮暗撮の両端のダイナミックレンジをちょっと広げるだけ、と考えているからである。これが
5枚8EVとかのブラケット撮影では、少なくともダイナミックレンジに関する限り RAW で撮影する
意味はまったくない。画質に関してはまた別の話であるが。