轉載地址:http://blog.sina.com.cn/s/blog_48f9e3860101i231.html
決定手機攝像頭性能的參數有哪些
1、光圈大小,如f2.2 、f2.4 、f2.6
f值越小,光圈越大,圖像性能越好。暗光環境下,光圈大的鏡頭拍的清楚。
2、快門速度,這一點要自己體驗
3、像素值其實沒用,放大後噪點很多。手機攝像頭的感光元件面積很小。
1600w像素數碼相機拍攝效果比500w像素的單反相機差的原因是感光元件的面積不同
數碼相機是0.4寸的感光元件,而單反的感光元件的面積就可能就有1寸還多了,
感光元件面積大,所以單位像素的利用價值高,圖像放大也不會模糊
手機攝像頭上的參數:1.3MEGA PIXELS,f=5.0mm 1:2.8表示什麼?
130萬像素,焦距=5.0毫米,1:2.8 可能是成像比之類的
手機CMOS攝像頭是什麼
cmos就相當於攝像頭的處理芯片也叫做傳感器,這個芯片主要用於外界光線後轉化爲電能,再透過芯片上的模擬轉換器將獲得的影像訊號轉變爲數字信號輸出。在進行對光感的分析,還原色彩,去除雜質等一系列的運算,使得照片能夠看起來非常的清晰。
不過手機上的cmos採用的是最差的芯片,就算是拍照手機也不的cmos芯片也不能和相機裏的cmos對比。因爲手機的cmos芯片很小,要比相機裏的cmos小很多,在對相片的分析和色彩還原,去除雜質等效果都有很大的差異。 CMOS攝像頭
CMOS經過加工也可以作爲數碼攝影中的圖像傳感器,CMOS傳感器也可細分爲被動式像素傳感器。CMOS傳感器具有較高的靈敏度、較短曝光時間和日漸縮小的像素尺寸。由於許多場景的拍攝都是在照明條件很差的情況下進行的,因此擁有較大的動態範圍將是十分有益的。 現在手機的攝像頭都是CMOS攝像頭,很少採用其他的傳感器。因爲CMOS的攝像頭價格低廉,成像一般。對於手機來說,CMOS傳感器已經夠用了。
手機攝像頭
作爲手機新型的拍攝功能,內置的數碼相機功能與我們平時所見到的低端的(10萬-130萬像素)數碼相機相同。與傳統相機相比,傳統相機使用“膠捲”作爲其記錄信息的載體,而數碼攝像頭的“膠捲”就是其成像感光器件,是數碼拍攝的心臟。感光器是攝像頭的核心,也是最關鍵的技術。
攝像頭按結構來分,有內置和外接之分,但其基本原理是一樣的。 按照其採用的感光器件來分,有CCD和CMOS之分: CCD(Charge Coupled Device,電荷耦合組件)使用一種高感光度的半導體材料製成,能把光線轉變成電荷,通過模數轉換器芯片轉換成數字信號,數字信號經過壓縮以後由相機內部的閃速存儲器或內置硬盤卡保存,因而可以輕而易舉地把數據傳輸給計算機,並藉助於計算機的處理手段,根據需要和想像來修改圖像。CCD由許多感光單位組成,當CCD表面受到光線照射時,每個感光單位會將電荷反映在組件上,所有的感光單位所產生的信號加在一起,就構成了一幅完整的畫面。它就像傳統相機的底片一樣的感光系統,是感應光線的電路裝置,你可以將它想象成一顆顆微小的感應粒子,鋪滿在光學鏡頭後方,當光線與圖像從鏡頭透過、投射到CCD表面時, CCD就會產生電流,將感應到的內容轉換成數碼資料儲存起來。CCD像素數目越多、單一像素尺寸越大,收集到的圖像就會越清晰。因此,儘管CCD數目並不是決定圖像品質的唯一重點,我們仍然可以把它當成相機等級的重要判準之一。目前掃描機、攝錄放一體機、數碼照相機多數配備CCD。 CCD經過長達35年的發展,大致的形狀和運作方式都已經定型。CCD 的組成主要是由一個類似馬賽克的網格、聚光鏡片以及墊於最底下的電子線路矩陣所組成。目前有能力生產 CCD 的公司分別爲:SONY、Philps、Kodak、Matsushita、Fuji和Sharp,大半是日本廠商。 CMOS(Complementary etal-Oxide Semiconductor,附加金屬氧化物半導體組件)和CCD一樣同爲在數碼相機中可記錄光線變化的半導體。CMOS的製造技術和一般計算機芯片沒什麼差別,主要是利用硅和鍺這兩種元素所做成的半導體,使其在CMOS上共存着帶N(帶–電)和 P(帶+電)級的半導體,這兩個互補效應所產生的電流即可被處理芯片紀錄和解讀成影像。然而,CMOS的缺點就是太容易出現雜點,這主要是因爲早期的設計使CMOS在處理快速變化的影像時,由於電流變化過於頻繁而會產生過熱的現象。 CCD和CMOS各自的利弊,我們可以從技術的角度來比較兩者主要存在的區別: 信息讀取方式不同。CCD傳感器存儲的電荷信息需在同步信號控制下一位一位的實施轉移後讀取,電荷信息轉移和讀取輸出需要有時鐘控制電路和三組不同的電源相配合,整個電路較爲複雜。CMOS傳感器經光電轉換後直接產生電流(或電壓)信號,信號讀取十分簡單。 速度有所差別。CCD傳感器需在同步時鐘的控制下以行爲單位一位一位的輸出信息,速度較慢;而CMOS傳感器採集光信號的同時就可以取出電信號,還能同時處理各單元的圖象信息,速度比CCD快很多。 電源及耗電量。CCD傳感器電荷耦合器大多需要三組電源供電,耗電量較大;CMOS傳感器只需使用一個電源,耗電量非常小,僅爲CCD電荷耦合器的1/8到1/10,CMOS光電傳感器在節能方面具有很大優勢。 成像質量。CCD傳感器製作技術起步較早,技術相對成熟,採用PN結合二氧化硅隔離層隔離噪聲,成像質量相對CMOS傳感器有一定優勢。由於CMOS傳感器集成度高,光電傳感元件與電路之間距離很近,相互之間的光、電、磁干擾較爲嚴重,噪聲對圖象質量影響很大。 在相同分辨率下,CMOS價格比CCD便宜,但是CMOS器件產生的圖像質量相比CCD來說要低一些。到目前爲止,市面上絕大多數的消費級別以及高端數碼相機都使用CCD作爲感應器;CMOS感應器則作爲低端產品應用於一些攝像頭上。是否具有CCD感應器一度成爲人們判斷數碼相機檔次的標準之一。而由於 CMOS的製造成本和功耗都要低於CCD不少,所以很多手機生產廠商採用的都是CMOS鏡頭。現在,市面上大多數手機都採用的是CMOS攝像頭,少數也採用了CCD攝像頭。
連拍原理
連拍功能(continuous shooting)是通過節約數據傳輸時間來捕捉攝影時機。連拍模式通過將數據裝入數碼相機內部的高速存儲器(高速緩存),而不是向存儲卡傳輸數據,可以在短時間內連續拍攝多張照片。由於數碼相機拍攝要經過光電轉換,A/D轉換及媒體記錄等過程,其中無論轉換還是記錄都需要花費時間,特別是記錄花費時間較多。因此,所有數碼相機的連拍速度都不很快。 連拍一般以幀爲計算單位,好像電影膠捲一樣,每一幀代表一個畫面,每秒能捕捉的幀數越多,連拍功能越快。目前,數碼相機中最快的連拍速度爲7幀/秒,而且連拍3秒鐘後必須再過幾秒才能繼續拍攝。當然,連拍速度對於攝影記者和體育攝影受好者是必須注意的指標,而普通攝影場合可以不必考慮。一般情況下,連拍捕捉的照片,分辨率和質量都會有所減少。有些數碼相機在連拍功能上可以選擇,拍攝分辨率較小的照片,連拍速度可以加快,反之,分辨率大的照片的連拍速度會相對減緩。 通過連續快拍模式,只須輕按按鈕,即可連續拍攝,將連續動作生動地記錄下來。 光學變焦和數碼變焦原理 光學變焦(Optical Zoom)是通過鏡頭、物體和焦點三方的位置發生變化而產生的。當成像面在水平方向運動的時候,如下圖,視覺和焦距就會發生變化,更遠的景物變得更清晰,讓人感覺像物體遞進的感覺。 顯而易見,要改變視角必然有兩種辦法,一種是改變鏡頭的焦距。用攝影的話來說,這就是光學變焦。通過改變變焦鏡頭中的各鏡片的相對位置來改變鏡頭的焦距。另一種就是改變成像面的大小,即成像面的對角線長短在目前的數碼攝影中,這就叫做數碼變焦。實際上數碼變焦並沒有改變鏡頭的焦距,只是通過改變成像面對角線的角度來改變視角,從而產生了“相當於”鏡頭焦距變化的效果。 所以我們看到,一些鏡頭越長的數碼相機,內部的鏡片和感光器移動空間更大,所以變焦倍數也更大。我們看到市面上的一些超薄型數碼相機,一般沒有光學變焦功能,因爲其機身內根部不允許感光器件的移動,而像索尼F828、富士S7000這些“長鏡頭”的數碼相機,光學變焦功能達到5、6倍。 數碼變焦(Digital Zoom)也稱爲數字變焦,數碼變焦是通過數碼相機內的處理器,把圖片內的每個象素面積增大,從而達到放大目的。這種手法如同用圖像處理軟件把圖片的面積改大,不過程序在數碼相機內進行,把原來影像感應器上的一部份像素使用“插值”處理手段做放大,將影像感應器上的像素用插值算法將畫面放大到整個畫面。 與光學變焦不同,數碼變焦是在感光器件垂直方向向上的變化,而給人以變焦效果的。在感光器件上的面積越小,那麼視覺上就會讓用戶只看見景物的局部。但是由於焦距沒有變化,所以,圖像質量是相對於正常情況下較差。 通過數碼變焦,拍攝的景物放大了,但它的清晰度會有一定程度的下降,所以數碼變焦並沒有太大的實際意義。因爲太大的數碼變焦會使圖像嚴重受損,有時候甚至因爲放大倍數太高,而分不清所拍攝的畫面。 手機拍攝4個小技巧? 拍攝手機的像素一般不高。但只要用點心思,還是可以用手機拍出好照片的。 法則一用“三等分法”構圖。在實際攝影構圖中將主體景物與中心稍錯開,並注意主體與其它物體之間的呼應。這樣拍攝的照片主體景物鮮明、突出,不會模糊不清。 法則二側光最能突出質感。一般情況下,從側面射入的光線能更好地突出物體的質感,因此要儘量利用側面光。逆光或者側逆光時,可以考慮用物品進行遮擋,實在不行就用手在攝像頭旁遮一下,緩解逆光的影響。在強光下拍攝也需要注意,千萬不要用手機鏡頭對着強光拍攝。 法則三按鍵後不宜馬上轉動手機。手機拍照延遲現象一般比較明顯,若使用外置攝像頭的手機拍照,這種延遲現象會更明顯。如果在按下快門的一瞬間手抖動了,拍出的照片會發虛或者模糊不清。所以,切記不要按下拍攝鍵後馬上轉動相機。 法則四儘量不用數碼變焦拍攝。如果用數碼變焦來拍照,會減弱圖像的清晰度,效果還不如不用數碼變焦拍攝的好。例如,一張使用數碼變焦拍攝、分辨率爲640×480的照片,實際分辨率可能只有320×240,在計算機上看時,圖像不是變小就是變得模糊。
手機攝像頭參數配置時的問題 1。很多時候其實是鬼影,畫面顏色亂得鬼畫圖書一樣(但顏色顯示不正常、並帶有較大的色塊光斑等等現象),不專業的同志往往把這也叫花屏。這個原因主要是數據線上的信號不對,比如D[5]跟GND短路,或者斷開。越是高位的信號線出問題,鬼影現象將越嚴重,低位信號(如D[1]、D[0])則對畫面影響不大,所以,在十位輸出格式中,往往爲了兼容8 位的IO口,把低兩位去掉,只要高8位。如何理解高位信號線的重要性?大家知道8位信號可以表示256個不同的級別,比如亮度值Y的高低級別、或者色度值 U/V的強度級別。假如D[7:0]=10000000代表的是128亮度值,那麼顯示出來就是灰色,但是如果D[7]斷開、或者短路,那麼CPU得到的值將是00000000,顯示出黑色,差別就大咯。同樣對於色度信號,也將出現顏色錯誤。所以出現這種情況,先查查信號通路(一般是Connector連接不良居多、然後是Sensor焊接綁定不良次之),然後再看驅動程序是否有弄錯 2。圖像反色,在RGB顏色系統中就是紅綠藍三個顏色的錯亂,在YUV系統中就是亮度信號跟色度信號的錯亂,當然也有兩個色度信號之間錯亂的。舉例說明,一個YUV422格式的Camera,其輸出的有效Pixel一般是Y0+U0)、(Y1+V0)、(Y2+u1)、(Y3+V1)....,如果因爲Camera的輸出時序錯位(比如 Camera輸出的是(U0+Y0)、(V0+Y1)....),而CPU還傻不拉幾地認爲是前面一種標準時序,那麼就出現每個象素點的亮度信號跟色度信號反了,對於構建畫面清晰最爲重要的亮度信號Y被拉去作爲U(或叫藍色偏量Cb),那麼就會出現高亮度的地方呈現綠色,低亮度的區域呈現紅色,而且畫面整體亮度也大大偏低。其他情況大體相似,可以類推之。不過出現畫面反色一般都表現爲畫面大紅大綠的情況。對這種情況,一般先看看送給Sensor的參數中有沒有設錯相關寄存器的值,或者檢查CPU這邊驅動程序的設置是否跟送出來的數據格式一致。 3。畫面條紋,而且一般都是彩色的橫條紋。這種彩色的條紋是固定在某些行,或者不斷閃現在不同的行。從單個行數據來看,出錯的原因跟上面第2條一樣,都是由數據錯位引起。這次拿RGB Raw數據格式來說,RGB Raw輸出一般是第一行/第二行:RGRG.../GBGB...,如果第一行的數據R沒有被採樣到,那麼CPU採集到的數據實際上就是GRGR.... 0/GBGB....(假設此CPU對一行數據中不足的位用0補齊),但是它又按照前面那個標準的數據排列來進行顏色插補的工作(對顏色插補不明白的等以後有時間再討論),如果照偏綠色的背景(R的分量很小,G的分量很大),但是由於採樣錯位,CPU把較大分量G的值當成是第一個象素R的值,本來弱小的R 分量就這樣莫名其妙的被大大地提升了,所以顯示保存圖片的時候這一行將整體的偏紅色,瞭解顏色插補的同志應該還會想到,即使第二行沒有錯位,也會受到一定的影響,呈現出偏紅的跡象。對於這樣的問題,不像第2那樣是整個畫面出現錯位,而只是某些行數據出現,這一般是由元器件製造時的差別引起的,Sensor 生產商不能保證每個Sensor的性能都一樣,也不能保證每行的數據時序都分毫不差。當然也跟信號受到外部的影響有關,比如行同步信號HREF受到外部影響,上升沿長,將可能引起第一個PCLK丟失。再假如PCLK信號如果受到干擾、或者驅動能力不夠,也有可能導致某些象素的丟失,從而一行數據的排列都會錯位,出現畫面的條紋現象。所以在設計硬件或者調試驅動程序的時候,良好的信號同步策略,以及設置更好的信號容差範圍將是系統長期穩定性的基礎 4。畫面噪點,畫面過多的噪點也往往會被說成是畫面花屏,可能從直觀理解,噪點這種“花屏”才真叫花,照出來滿臉的麻子,而且是花花綠綠,奼紫嫣紅啊。噪點我放到最後纔講是因爲這個問題嘛,現在已經越來越不是問題了。隨着CMOS技術的進步,已經ISP的集成,Sensor中降噪的能力越來越強,除了低照度(幾個LUX)下的噪點還很難消除外,其它時候已經可以通過顏色矯正、自動增益調節、自動Gmma、黑白點矯正等ISP功能基本消除掉。如果是用RGB Raw數據格式的兄弟可是要費一番功夫了,調試驅動的時候要充分利用CPU集成的一些ISP功能,消除掉那些紅鬼藍鬼。畫面噪點主要跟Sensor的設計製造技術有關,我們往往也只能望而興嘆,但是如果Boss比較大方、應用於高端機型的,還是得買貴的Sensor啊,現在這個市場啊,已經擠得水泄不通了,價格也不會不靠譜,基本上是一分錢一分貨了。 再轉載一個網友的觀點:
本人從事cellphone以及PC camera 的應用工作,我來談談我的一些看法,不足的地方請補充! 主要是CMOS IMAGE SENSOR的應用,先說說整個模塊! 構成: 整個系統由三部分構成:圖像採集模塊、圖像處理模塊和圖像傳輸模塊。 1圖像採集模塊: 圖像的採集過程是把光轉化爲電信號;首先,光通過鏡頭進入sensor,有sensor裏的photodiode轉化爲電壓電流,然後經過AMP放大,再有ADC轉化爲數字信號; 2圖像處理模塊 : 該過程主要對sensor出來的數字信號進行處理,稱ISP,image signal process 主要包括:lens shading ; Gamma correction;color interpolation;contrast;saturation;AE;AWB;color correction;bad pixel correction等下面主要談談AE(自動曝光)與AWB(自動白平衡) 運動目標檢測與跟蹤、目標的識別與提取等基於圖像內容的處理,對圖像質量要求較高。影響成像質量的兩個重要因素爲曝光和白平衡:人眼對外部環境的明暗變化非常敏感,在強光環境下,瞳孔縮小,使得景物不那麼刺眼;而光線較弱時,瞳孔擴大,使景物儘可能地變清楚。這在成像中,稱爲曝光。當外界光線較弱時, CMOS成像芯片工作電流較小,所成圖像偏暗,這時要適當增加曝光時間進行背光補償;光線充足或較強時,要適當減少曝光時間,防止曝光過度,圖像發白。改善成像質量,僅靠調節曝光時間是不夠的。因爲物體顏色會隨照射光線的顏色發生改變,在不同的光線場合圖像有不同的色溫。這就是白平衡問題。傳統光學相機或攝像機通過給鏡頭加濾鏡消除圖像的偏色現象。對於CMOS成像芯片,可以通過調整RGB三基色的電子增益解決白平衡問題。 本系統的自動曝光控制和白平衡處理實現方法如下: 採集一幀RGB原始圖像,先計算出整幅圖像亮度的均值m(Y);然後對圖像做直方圖均衡化,再計算出此時圖像的亮度均值並作爲一個閾值Yt。將m (Y)與Yt進行比較,如果m(Y) < Yt,則調大sensor的INT(Integration Time)寄存器的值以增加曝光時間;反之,減小曝光時間。白平衡的調節與此相似,根據原始圖像與均衡化後的Cr和Cb的均值,通過sensor的RCG (Red Color Gain)、BCG(Blue Color Gain)調節紅色、藍色通道的增益。YCrCb和RGB的轉換關係式爲: Y=0.59G+0.31R+0.11B Cr=0.713×(R-Y) Cb=0.564×(B-Y) 其中,Y是亮度分量,Cr和Cb則是色差分量。 sensor的曝光時間範圍爲0~(224-1)個像素時鐘週期,即0~[email protected];增益範圍一般爲30~63。試驗結果表明,經過5~10次的迭代就能取得較爲理想的效果。
|
手機攝像頭技術
發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.