總是說什麼色階連續,顏色連貫,**多通透,有那麼神麼?!
其實絕大多數都是ps的功勞。其中色階一項佔了很大一塊技術。 光線其實是沒有色階這一概念的,因為光線的亮度本身就是連續的。
但是當我們進行攝影,特別是數碼攝影,我們實際上是將現場的光線進行取樣(sampling),cmos技術引數中的顏色深度,即說的多少位:
8bit,12bit或14bit,指的就是取樣精度,而取樣之後的影象亮度,肯定就已經不是連續的了,以數學的方式說明,即是將取樣空間裡的無數個點,變成有限個點,以此來節省樣本資料量。(題外話,這也是為什麼說任何東西經過數位化之後就丟失了絕大部分細節的原因,也正是因為數位化丟失了巨量的細節,因此數碼的處理速度遠遠高於模擬的處理數度)。
那麼,為什麼丟失了絕大部分細節的數位化處理方式,仍然能夠得到流行?除了處理速度快意外,主要是因為人類肉體本身的弱點決定的。
其一,即使我們觀察自然光線,巨量的資訊向我們鋪面而來,但注意,人類肉眼的解析度是有極限的,人類大腦處理的數度也是有極限的,因此我們在觀察的過程中,本身就進行了取樣,亦即是說,丟掉細節。
其二,即使我們將自然光線一絲不漏地儲存下來,然是當我們進行輸出的時候,不論是在顯示器上輸出,還是在印表機上進行輸出,現時現代的技術決定了,輸出階段也必然丟失大量的細節。 那麼,按照木桶原理,最終的效果是取決於最短的那塊木板,如果攝影技術最後總是要人來看的話,那麼無論如何我們也無法得到完整的細節,從成本的角度而言,技術發展的高度只要超過人眼就好了,如此一來,對肉眼來說,取樣和現場其實毫無分別。
按照現時的商用電子感光技術,已經能做到14bit的取樣率,而我們絕大部分的顯示器輸出都是在8bit以下的(32位色),因此,照道理來講,我們在**上應該很難分辨**亮度的不正常才對。 但實際上,有幾點限制了電子感光片發揮最大功效:
1,攝影鏡頭。所有的光線都是經過鏡頭然後匯聚到感光片上,在鏡頭上不可避免會損失一些光線,造成的影響是,某些顏色在某些亮度上無法被底片感光。
2,cmos的濾光片,低通濾鏡,以及微透鏡,這些除了本身的功能(比如低通濾鏡取出偽色)外還會損害現場顏色的純淨度的。
3,cmos的質量也會造成某些部分的亮度與現場不符。 總之這些工藝和技術原因汙染了取樣之前的光線。 本來有一些光線的,在底片上可能卻無法感光,或者是本來有某些顏色的,在底片上卻無法感光。諸如此類的汙染。因此最後的成像實際上是有了一種「色階壓縮」的效果,即黑色被記錄成深灰色,白色被記錄成淺灰色,raw原片往往看起來發灰,就是這個原因。
由於色階壓縮的影響,實際上,標稱14bit的cmos,往往可能只能利用到10bit以下的色階。 那麼在進行後期顯像處理時,往往會進行反向操作,即色階擴張。
在photoshop裡面有乙個功能大家一定要多使用,即「auto level」,這個功能將被壓縮了的色階重新插值擴張到完整的亮度域,因此經過auto level之後,**看起來會通透得多。
既然是插值,那麼肯定會不准。 已實際環境做例子,現場的光線從0線性增加到255,被cmos記錄了6個點,即30,70,110,150,190,230,那麼原片看起來肯定是發灰的,
因為已經丟棄了0-29和231-255的色階。那麼再經過auto level擴充套件到0-255,6個點的色階變成了0,51,102,154,205,255。
這時**看起來就通透多了。但大家注意,6個點之間的亮度差異變大了。 因此原來我們肉眼看起來覺得連續的亮暗過渡,現在也許就不再那麼連續了。
因此看到發差色階對於**的重要性了吧。不行你找個沒後期的raw檔案看看,灰不灰。
數位相機的選購
感光器材分為兩種 cmos 互補金屬氧化物半導體 ccd 電荷耦合 相同解析度cmos便宜但是影象質量沒有ccd好,所以一般好點的數位相機都是ccd。解析度分為插值解析度 軟體計算插值來增加解析度 和真實解析度。消費級數位相機,一般不能更換鏡頭,鏡頭分為光學變焦和定焦,定焦的成像質量 取景和構圖方面...
數位相機與手機相機成像差別
之前用也不是很好的卡片相機,拍的 石碑上的小字放大都看得清清楚楚。後來智慧型手機標的畫素很高,但是並不清晰。一開始以為是虛標,查了一下發現成像是否清晰和感光元件的面積大小有很大關係。手機 1200 萬畫素和相機 1200 萬畫素之間有什麼區別?先要說一下數位相機的基本原理,問題自然就清晰了。數位相機...
數位相機光圈與快門挑選篇
數位相機光圈與快門挑選篇 快門 快門是數位相機選購時和光圈同等重要的物理部件。快門的速度是數位相機快門的重要考察引數,各個不同型號的數位相機的快門速度是完全不一樣的,因此在使用某個型號的數位相機來拍攝景物時,一定要先了解其快門的速度,因為按快門時只有考慮了快門的啟動時間,並且掌握好快門的釋放時機,才...