RGB YUV轉換原理

[+]
  1. RGB TO YUV轉換原理及代碼示例
  2. 數據表述方式
  3. 轉換公式
  4. 代碼示例
  5. 1前言
  6. 2YUV相關色彩空間模型
    1. 1YUV 與 YIQ YcrCb
  7. 3YUV2RGB快速算法分析
    1. 1整型算法
    2. 2部分查表法
    3. 3完全查表法
    4. 4進一步的思考
  8. 4RGB2YUV
RGB TO YUV轉換原理及代碼示例[轉]

RGB TO YUV轉換原理及代碼示例

                                      
RGB TO YUV轉換原理及代碼示例

由於H.264等壓縮算法都是在YUV的顏色空間上進行的,所有在進行壓縮前,首先要進行顏色空間的轉換。如果攝像頭採集的資源是RGB的,那麼首先要轉換成YUV,如果是YUV的,那麼要根據壓縮器具體支持的YUV格式做數據的重排。本文以RGB24àYUV420(YV12)爲例,講解顏色空間轉換的原理。

數據表述方式

320*240的一幀圖像爲例RGB24的排列方式如下圖所示:

每個像素點有三個字節組成分別表示R,G,B分量上的顏色值。在數據中的表示方式爲一個像素 一個像素表示。字節流可以表述如下:

BGRBGRBGRBGRBGR……

|---------------320*240*3-------|

每一個字母表示一個字節,也就是該顏色分量的數值,相鄰的三個BGR字節表示一個像素點。在我們做計算時,通常一次取三個字節,也就是一個像素點。

相應的YV12的排列方式如下圖所示:

每個像素點都有一個Y分量,每隔一列就有一個U或者V分量,UV交替出現。YV12的字節流表示方式和RGB24有很大區別,YV12並不是按照像素依次排列的,而是先放置Y空間,然後放置整個V空間,最後放置U空間,那麼字節流如下所示:

YYYYYYY……VVVV……UUUU……

|-----320*240----|-320*240/4-|-320*240/4-|

320*240個字節的Y後,緊跟着320*240/4V320*240/4U

YV12RGB24同樣都有320*240個像素點,但是在數據結構和字節流上有着很大區別。單純從數據大小來看,RGB24的數據大小爲320*240*3Bytes,YV12320*240*1.5Bytes,可見YV12的數據量爲RGB24的一半。

轉換公式

明白了數據表述方式之後,只要把對應像素點的RGB數值,分別計算成對應的YUV值,然後通過YUV的字節流樣式把數據表述出來就可以了,這裏,首先介紹一下RGBYUV轉換公式。

     Y= 0.3*R + 0.59*G + 0.11*B

     U= (B-Y) * 0.493

V= (R-Y) * 0.877

同樣反過來,YUV轉換成RGB的公式如下:

R = Y + 1.14V

G = Y - 0.39U - 0.58V

B = Y + 2.03U

代碼示例

下面給出了RGB24YV12YUV420)的轉換代碼示例(C++):

     uint_8_t * pSrc=;// this is RGB bit stream

     uint_8_t * YUV_Image=new uint_8[320*240*3/2];// YUV420 bit stream

int i=0,j=0;

     int width=320; // width of the RGB image

     int height=240; // height of the RGB image

     int uPos=0, vPos=0;

     for( i=0;i< height;i++ ){

         bool isU=false;

         if( i%2==0 ) isU=true// this is a U line

         for( j=0;j

              int pos = width * i + j; // pixel position

              uint_8_t B = pSrc[pos*3];

              uint_8_t G = pSrc[pos*3+1];

              uint_8_t R = pSrc[pos*3+2];

              uint8_t Y= (uint8_t)(0.3*R + 0.59*G + 0.11*B);

              uint8_t U= (uint8_t)((B-Y) * 0.493);

              uint8_t V= (uint8_t)((R-Y) * 0.877);

              YUV_Image[pos] = Y;

              bool isChr=false;  // is this a chroma point

              if( j%2==0 ) isChr=true;

              if( isChr && isU ){

                   YUV_Image[plane+(plane>>2)+uPos]=U;

              }

              if( isChr&& !isU ){

                   YUV_Image[plane+vPos]=V;

              }

         }

}

【作者: milon


 


 

1 前言

        自然界的顏色千變萬化,爲了給顏色一個量化的衡量標準,就需要建立色彩空間模型來描述各種各樣的顏色,由於人對色彩的感知是一個複雜的生理和心理聯合作用 的過程,所以在不同的應用領域中爲了更好更準確的滿足各自的需求,就出現了各種各樣的色彩空間模型來量化的描述顏色。我們比較常接觸到的就包括 RGB / CMYK / YIQ / YUV / HSI等等。

        對於數字電子多媒體領域來說,我們經常接觸到的色彩空間的概念,主要是RGB , YUV這兩種(實際上,這兩種體系包含了許多種具體的顏色表達方式和模型,如sRGB, Adobe RGB, YUV422, YUV420 …), RGB是按三基色加光系統的原理來描述顏色,而YUV則是按照 亮度,色差的原理來描述顏色。

        即使只是RGB YUV這兩大類色彩空間,所涉及到的知識也是十分豐富複雜的,自知不具備足夠的相關專業知識,所以本文主要針對工程領域的應用及算法進行討論。

2 YUV相關色彩空間模型

2.1 YUV 與 YIQ YcrCb

        對於YUV模型,實際上很多時候,我們是把它和YIQ / YCrCb模型混爲一談的。

        實際上,YUV模型用於PAL制式的電視系統,Y表示亮度,UV並非任何單詞的縮寫。

        YIQ模型與YUV模型類似,用於NTSC制式的電視系統。YIQ顏色空間中的I和Q分量相當於將YUV空間中的UV分量做了一個33度的旋轉。

        YCbCr顏色空間是由YUV顏色空間派生的一種顏色空間,主要用於數字電視系統中。從RGB到YCbCr的轉換中,輸入、輸出都是8位二進制格式。

       

   三者與RGB的轉換方程如下:

        RGB -> YUV:

 

       實際上也就是:

Y=0.30R+0.59G+0.11B , U=0.493(B-Y) , V=0.877(R-Y)

        RGB -> YIQ:

       RGB -> YCrCb:

        從公式中,我們關鍵要理解的一點是,UV / CbCr信號實際上就是藍色差信號和紅色差信號,進而言之,實際上一定程度上間接的代表了藍色和紅色的強度,理解這一點對於我們理解各種顏色變換處理的過程會有很大的幫助。

        我們在數字電子多媒體領域所談到的YUV格式,實際上準確的說,是以YcrCb色彩空間模型爲基礎的具有多種存儲格式的一類顏色模型的家族(包括 YUV444 / YUV422 / YUV420 / YUV420P等等)。並不是傳統意義上用於PAL制模擬電視的YUV模型。這些YUV模型的區別主要在於UV數據的採樣方式和存儲方式,這裏就不詳述。

        而在Camera Sensor中,最常用的YUV模型是 YUV422格式,因爲它採用4個字節描述兩個像素,能和RGB565模型比較好的兼容。有利於Camera Sensor和Camera controller的軟硬件接口設計。

3 YUV2RGB快速算法分析

        這裏指的YUV實際是YcrCb了,YUV2RGB的轉換公式本身是很簡單的,但是牽涉到浮點運算,所以,如果要實現快速算法,算法結構本身沒什麼好研究的了,主要是採用整型運算或者查表來加快計算速度。
首先可以推導得到轉換公式爲:

        R = Y + 1.4075 *(V-128)
        G = Y – 0.3455 *(U –128) – 0.7169 *(V –128)
        B = Y + 1.779 *(U – 128)

3.1 整型算法

       要用整型運算代替浮點運算,當然是要用移位的辦法了,我們可以很容易得到下列算法:

        u = YUVdata[UPOS] - 128;
        v = YUVdata[VPOS] - 128;

        rdif = v + ((v * 103) >> 8);
        invgdif = ((u * 88) >> 8) +((v * 183) >> 8);
        bdif = u +( (u*198) >> 8);

        r = YUVdata[YPOS] + rdif;
        g = YUVdata[YPOS] - invgdif;
        b = YUVdata[YPOS] + bdif;

爲了防止出現溢出,還需要判錯計算的結果是否在0-255範圍內,做類似下面的判斷。

        if (r>255)
            r=255;
        if (r<0)
            r=0;

        要從RGB24轉換成RGB565數據還要做移位和或運算:

        RGBdata[1] =( (r & 0xF8)  | ( g >> 5) );
        RGBdata[0] =( ((g & 0x1C) << 3) | ( b >> 3) );

3.2 部分查表法

        查表法首先可以想到的就是用查表替代上述整型算法中的乘法運算。

        rdif = fac_1_4075[u];
        invgdif = fac_m_0_3455[u] + fac_m_0_7169[v];
        bdif = fac_1_779[u];

        這裏一共需要4個1維數組,下標從0開始到255,表格共佔用約1K的內存空間。uv可以不需要做減128的操作了。在事先計算對應的數組元素的值的時候計算在內就好了。

        對於每個像素,部分查表法用查表替代了2次減法運算和4次乘法運算,4次移位運算。但是,依然需要多次加法運算和6次比較運算和可能存在的賦值操作,相對第一種方法運算速度提高並不明顯。

3.3 完全查表法

        那麼是否可以由YUV直接查表得到對應的RGB值呢?乍一看似乎不太可能,以最複雜的G的運算爲例,因爲G與YUV三者都相關,所以類似 G=YUV2G[Y][U][V]這樣的算法,一個三維下標尺寸都爲256的數組就需要佔用2的24次方約16兆空間,絕對是沒法接受的。所以目前多數都 是採用部分查表法。

        但是,如果我們仔細分析就可以發現,對於G我們實際上完全沒有必要採用三維數組,因爲Y只與UV運算的結果相關,與UV的個體無關,所以我們可以採用二次查表的方法將G的運算簡化爲對兩個二維數組的查表操作,如下:

        G = yig2g_table[ y ][ uv2ig_table[ u ][ v ] ];

        而RB本身就只和YU或YV相關,所以這樣我們一共需要4個8*8的二維表格,需要佔用4乘2的16次方共256K內存。基本可以接受。但是對於手機這樣的嵌入式運用來說,還是略有些大了。

        進一步分析,我們可以看到,因爲在手機等嵌入式運用上我們最終是要把數據轉換成RGB565格式送到LCD屏上顯示的,所以,對於RGB三分量來說,我們 根本不需要8bit這麼高的精度,爲了簡單和運算的統一起見,對每個分量我們其實只需要高6bit的數據就足夠了,所以我們可以進一步把表格改爲4個 6*6的二維表格,這樣一共只需要佔用16K內存!在計算表格元素值的時候還可以把最終的溢出判斷也事先做完。最後的算法如下:

        y = (YUVdata[Y1POS] >> 2);
        u = (YUVdata[UPOS] >> 2);
        v = (YUVdata[VPOS] >> 2);

        r = yv2r_table[ y ][ v ];
        g = yig2g_table[ y ][ uv2ig_table[ u ][ v ] ];
        b = yu2b_table[ y ][ u ];
 
        RGBdata[1] =( (r & 0xF8)  | ( g >> 5) );
        RGBdata[0] =( ((g & 0x1C) << 3) | ( b >> 3) );

        這樣相對部分查表法,我們增加了3次移位運算,而進一步減少了4次加法運算和6次比較賦值操作。

        在計算表格元素數值的時候,要考慮舍入和偏移等因數使得計算的中間結果滿足數組下標非負的要求,需要一定的技巧。

        採用完全查表法,相對於第一種算法,最終運算速度可以有比較明顯的提高,具體性能能提高多少,要看所在平臺的CPU運算速度和內存存取速度的相對比例。內 存存取速度越快,用查表法帶來的性能改善越明顯。在我的PC上測試的結果性能大約能提高35%。而在某ARM平臺上測試只提高了約15%。

3.4 進一步的思考

        實際上,上述算法:

        RGBdata[1] =( (r & 0xF8)  | ( g >> 5) );
        RGBdata[0] =( ((g & 0x1C) << 3) | ( b >> 3) );

        中的 (r & 0xF8) 和 ( b >> 3) 等運算也完全可以在表格中事先計算出來。另外,YU / YV的取值實際上不可能覆蓋滿6*6的範圍,中間有些點是永遠取不到的無輸入,RB的運算也可以考慮用5*5的表格。這些都可能進一步提高運算的速度,減 小表格的尺寸。

        另外,在嵌入式運用中,如果可能儘量將表格放在高速內存如SRAM中應該比放在SDRAM中更加能發揮查表法的優勢。

4 RGB2YUV ?

        目前覺得這個是沒法將3維表格的查表運算化簡爲2維表格的查表運算了。只能用部分查表法替代其中的乘法運算。

        另外,多數情況下,我們需要的還是YUV2RGB的轉換,因爲從Sensor得到的數據通常我們會用YUV數據,此外JPG和MPEG實際上也是基於YUV格式編碼的,所以要顯示解碼後的數據需要的也是YUV2RGB的運算。
 
 
 
 
以下是從DirectShow中摘抄的相關文章

計算機彩色顯示器顯示色彩的原理與彩色電視機一樣,都是採用R(Red)、G(Green)、B(Blue)相加混色的原理:通過發射出三種不同強 度的電子束,使屏幕內側覆蓋的紅、綠、藍磷光材料發光而產生色彩。這種色彩的表示方法稱爲RGB色彩空間表示(它也是多媒體計算機技術中用得最多的一種色 彩空間表示方法)。
根據三基色原理,任意一種色光F都可以用不同分量的R、G、B三色相加混合而成。

F = r [ R ] + g [ G ] + b [ B ]

其中,r、g、b分別爲三基色參與混合的係數。當三基色分量都爲0(最弱)時混合爲黑色光;而當三基色分量都爲k(最強)時混合爲白色光。調整r、g、b三個係數的值,可以混合出介於黑色光和白色光之間的各種各樣的色光。
那 麼YUV又從何而來呢?在現代彩色電視系統中,通常採用三管彩色攝像機或彩色CCD攝像機進行攝像,然後把攝得的彩色圖像信號經分色、分別放大校正後得到 RGB,再經過矩陣變換電路得到亮度信號Y和兩個色差信號R-Y(即U)、B-Y(即V),最後發送端將亮度和色差三個信號分別進行編碼,用同一信道發送 出去。這種色彩的表示方法就是所謂的YUV色彩空間表示。
採用YUV色彩空間的重要性是它的亮度信號Y和色度信號U、V是分離的。如果只有Y信號分量而沒有U、V分量,那麼這樣表示的圖像就是黑白灰度圖像。彩色電視採用YUV空間正是爲了用亮度信號Y解決彩色電視機與黑白電視機的兼容問題,使黑白電視機也能接收彩色電視信號。
YUV與RGB相互轉換的公式如下(RGB取值範圍均爲0-255):

Y = 0.299R + 0.587G + 0.114B
U = -0.147R - 0.289G + 0.436B
V = 0.615R - 0.515G - 0.100B

R = Y + 1.14V
G = Y - 0.39U - 0.58V
B = Y + 2.03U

在DirectShow中,常見的RGB格式有RGB1、RGB4、RGB8、RGB565、RGB555、RGB24、RGB32、ARGB32 等;常見的YUV格式有YUY2、YUYV、YVYU、UYVY、AYUV、Y41P、Y411、Y211、IF09、IYUV、YV12、YVU9、 YUV411、YUV420等。作爲視頻媒體類型的輔助說明類型(Subtype),它們對應的GUID見表2.3。

表2.3 常見的RGB和YUV格式

GUID    格式描述
MEDIASUBTYPE_RGB1    2色,每個像素用1位表示,需要調色板
MEDIASUBTYPE_RGB4    16色,每個像素用4位表示,需要調色板
MEDIASUBTYPE_RGB8    256色,每個像素用8位表示,需要調色板
MEDIASUBTYPE_RGB565    每個像素用16位表示,RGB分量分別使用5位、6位、5位
MEDIASUBTYPE_RGB555    每個像素用16位表示,RGB分量都使用5位(剩下的1位不用)
MEDIASUBTYPE_RGB24    每個像素用24位表示,RGB分量各使用8位
MEDIASUBTYPE_RGB32    每個像素用32位表示,RGB分量各使用8位(剩下的8位不用)
MEDIASUBTYPE_ARGB32    每個像素用32位表示,RGB分量各使用8位(剩下的8位用於表示Alpha通道值)
MEDIASUBTYPE_YUY2    YUY2格式,以4:2:2方式打包
MEDIASUBTYPE_YUYV    YUYV格式(實際格式與YUY2相同)
MEDIASUBTYPE_YVYU    YVYU格式,以4:2:2方式打包
MEDIASUBTYPE_UYVY    UYVY格式,以4:2:2方式打包
MEDIASUBTYPE_AYUV    帶Alpha通道的4:4:4 YUV格式
MEDIASUBTYPE_Y41P    Y41P格式,以4:1:1方式打包
MEDIASUBTYPE_Y411    Y411格式(實際格式與Y41P相同)
MEDIASUBTYPE_Y211    Y211格式
MEDIASUBTYPE_IF09    IF09格式
MEDIASUBTYPE_IYUV    IYUV格式
MEDIASUBTYPE_YV12    YV12格式
MEDIASUBTYPE_YVU9    YVU9格式

下面分別介紹各種RGB格式。

¨ RGB1、RGB4、RGB8都是調色板類型的RGB格式,在描述這些媒體類型的格式細節時,通常會在BITMAPINFOHEADER數據結構後面跟着 一個調色板(定義一系列顏色)。它們的圖像數據並不是真正的顏色值,而是當前像素顏色值在調色板中的索引。以RGB1(2色位圖)爲例,比如它的調色板中 定義的兩種顏色值依次爲0x000000(黑色)和0xFFFFFF(白色),那麼圖像數據001101010111…(每個像素用1位表示)表示對應各 像素的顏色爲:黑黑白白黑白黑白黑白白白…。

¨ RGB565使用16位表示一個像素,這16位中的5位用於R,6位用於G,5位用於B。程序中通常使用一個字(WORD,一個字等於兩個字節)來操作一個像素。當讀出一個像素後,這個字的各個位意義如下:
     高字節              低字節
R R R R R G G G     G G G B B B B B
可以組合使用屏蔽字和移位操作來得到RGB各分量的值:

#define RGB565_MASK_RED    0xF800
#define RGB565_MASK_GREEN  0x07E0
#define RGB565_MASK_BLUE   0x001F
R = (wPixel & RGB565_MASK_RED) >> 11;   // 取值範圍0-31
G = (wPixel & RGB565_MASK_GREEN) >> 5;  // 取值範圍0-63
B =  wPixel & RGB565_MASK_BLUE;         // 取值範圍0-31

¨ RGB555是另一種16位的RGB格式,RGB分量都用5位表示(剩下的1位不用)。使用一個字讀出一個像素後,這個字的各個位意義如下:
     高字節             低字節
X R R R R G G       G G G B B B B B       (X表示不用,可以忽略)
可以組合使用屏蔽字和移位操作來得到RGB各分量的值:

#define RGB555_MASK_RED    0x7C00
#define RGB555_MASK_GREEN  0x03E0
#define RGB555_MASK_BLUE   0x001F
R = (wPixel & RGB555_MASK_RED) >> 10;   // 取值範圍0-31
G = (wPixel & RGB555_MASK_GREEN) >> 5;  // 取值範圍0-31
B =  wPixel & RGB555_MASK_BLUE;         // 取值範圍0-31

¨ RGB24使用24位來表示一個像素,RGB分量都用8位表示,取值範圍爲0-255。注意在內存中RGB各分量的排列順序爲:BGR BGR BGR…。通常可以使用RGBTRIPLE數據結構來操作一個像素,它的定義爲:

typedef struct tagRGBTRIPLE { 
  BYTE rgbtBlue;    // 藍色分量
  BYTE rgbtGreen;   // 綠色分量
  BYTE rgbtRed;     // 紅色分量
} RGBTRIPLE;

¨ RGB32使用32位來表示一個像素,RGB分量各用去8位,剩下的8位用作Alpha通道或者不用。(ARGB32就是帶Alpha通道的 RGB32。)注意在內存中RGB各分量的排列順序爲:BGRA BGRA BGRA…。通常可以使用RGBQUAD數據結構來操作一個像素,它的定義爲:

typedef struct tagRGBQUAD {
  BYTE    rgbBlue;      // 藍色分量
  BYTE    rgbGreen;     // 綠色分量
  BYTE    rgbRed;       // 紅色分量
  BYTE    rgbReserved;  // 保留字節(用作Alpha通道或忽略)
} RGBQUAD;

下面介紹各種YUV格式。YUV格式通常有兩大類:打包(packed)格式和平面(planar)格式。前者將YUV分量存放在同一個數組中,通 常是幾個相鄰的像素組成一個宏像素(macro-pixel);而後者使用三個數組分開存放YUV三個分量,就像是一個三維平面一樣。表2.3中的 YUY2到Y211都是打包格式,而IF09到YVU9都是平面格式。(注意:在介紹各種具體格式時,YUV各分量都會帶有下標,如Y0、U0、V0表示 第一個像素的YUV分量,Y1、U1、V1表示第二個像素的YUV分量,以此類推。)

¨ YUY2(和YUYV)格式爲每個像素保留Y分量,而UV分量在水平方向上每兩個像素採樣一次。一個宏像素爲4個字節,實際表示2個像素。(4:2:2的意思爲一個宏像素中有4個Y分量、2個U分量和2個V分量。)圖像數據中YUV分量排列順序如下:
Y0 U0 Y1 V0    Y2 U2 Y3 V2 …

¨ YVYU格式跟YUY2類似,只是圖像數據中YUV分量的排列順序有所不同:
Y0 V0 Y1 U0    Y2 V2 Y3 U2 …

¨ UYVY格式跟YUY2類似,只是圖像數據中YUV分量的排列順序有所不同:
U0 Y0 V0 Y1    U2 Y2 V2 Y3 …

¨ AYUV格式帶有一個Alpha通道,並且爲每個像素都提取YUV分量,圖像數據格式如下:
A0 Y0 U0 V0    A1 Y1 U1 V1 …

¨ Y41P(和Y411)格式爲每個像素保留Y分量,而UV分量在水平方向上每4個像素採樣一次。一個宏像素爲12個字節,實際表示8個像素。圖像數據中YUV分量排列順序如下:
U0 Y0 V0 Y1    U4 Y2 V4 Y3    Y4 Y5 Y6 Y8 …

¨ Y211格式在水平方向上Y分量每2個像素採樣一次,而UV分量每4個像素採樣一次。一個宏像素爲4個字節,實際表示4個像素。圖像數據中YUV分量排列順序如下:
Y0 U0 Y2 V0    Y4 U4 Y6 V4 …

¨ YVU9格式爲每個像素都提取Y分量,而在UV分量的提取時,首先將圖像分成若干個4 x 4的宏塊,然後每個宏塊提取一個U分量和一個V分量。圖像數據存儲時,首先是整幅圖像的Y分量數組,然後就跟着U分量數組,以及V分量數組。IF09格式與YVU9類似。

¨ IYUV格式爲每個像素都提取Y分量,而在UV分量的提取時,首先將圖像分成若干個2 x 2的宏塊,然後每個宏塊提取一個U分量和一個V分量。YV12格式與IYUV類似。

¨ YUV411、YUV420格式多見於DV數據中,前者用於NTSC制,後者用於PAL制。YUV411爲每個像素都提取Y分量,而UV分量在水平方向上 每4個像素採樣一次。YUV420並非V分量採樣爲0,而是跟YUV411相比,在水平方向上提高一倍色差採樣頻率,在垂直方向上以U/V間隔的方式減小 一半色差採樣,如圖2.12所示。

發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章