PIX_FMT_YUV420P, < Planar YUV 4:2:0 (1 Cr & Cb sample per 2x2 Y samples)/n"
PIX_FMT_YUV422, < Packed pixel, Y0 Cb Y1 Cr /n"
PIX_FMT_RGB24, < Packed pixel, 3 bytes per pixel, RGBRGB.../n"
PIX_FMT_BGR24, < Packed pixel, 3 bytes per pixel, BGRBGR.../n"
PIX_FMT_YUV422P, < Planar YUV 4:2:2 (1 Cr & Cb sample per 2x1 Y samples)/n"
PIX_FMT_YUV444P, < Planar YUV 4:4:4 (1 Cr & Cb sample per 1x1 Y samples)/n"
PIX_FMT_RGBA32, < Packed pixel, 4 bytes per pixel, BGRABGRA..., stored in cpu endianness/n"
PIX_FMT_YUV410P, < Planar YUV 4:1:0 (1 Cr & Cb sample per 4x4 Y samples)/n"
PIX_FMT_YUV411P, < Planar YUV 4:1:1 (1 Cr & Cb sample per 4x1 Y samples)/n"
IX_FMT_RGB565, < always stored in cpu endianness /n"
PIX_FMT_RGB555, < always stored in cpu endianness, most significant bit to 1 /n"
PIX_FMT_GRAY8,/n"
PIX_FMT_MONOWHITE, < 0 is white /n"
PIX_FMT_MONOBLACK, < 0 is black /n"
PIX_FMT_PAL8, < 8 bit with RGBA palette /n"
PIX_FMT_YUVJ420P, < Planar YUV 4:2:0 full scale (jpeg)/n"
PIX_FMT_YUVJ422P, < Planar YUV 4:2:2 full scale (jpeg)/n"
PIX_FMT_YUVJ444P, < Planar YUV 4:4:4 full scale (jpeg)/n"
PIX_FMT_UYVY422, < Packed pixel, Cb Y0 Cr Y1 /n"
PIX_FMT_UYVY411, < Packed pixel, Cb Y0 Y1 Cr Y2 Y3/n"
/////////////////////////////////////////////////////////////////
舉例來說,
PIX_FMT_YUV444P, < Planar YUV 4:4:4
指的是文件的開始1/3是y分量,中間1/3是u分量,最後1/3是v分量。
PIX_FMT_RGB24, < Packed pixel, 3 bytes per pixel, RGBRGB.../n"
指的是文件內的數據3個byte是一組,始終按照RGB方式排列。
PIX_FMT_RGBA32, < Packed pixel, 4 bytes per pixel, BGRABGRA..., stored in cpu endianness/n"
指的是文件內的數據4個byte是一組,始終按照RGB+alpha byte方式排列,alpha表示透明度。
/////////////////////////////////////////////////////////////////
ffmpeg對於以上所有類型抽象成
typedef struct AVPicture {
uint8_t *data[4];
int linesize[4];
} AVPicture;
該結構體總共表示四個平面,
data[0]表示第一個平面的數據開始地址,
linesize[0]表示第一個平面的每一行有多少個字節。
這樣PIX_FMT_YUV444P有三個Planar,最後一個平面空着不用就好了。
AVFrame這個結構體的包含AVPicture,此外,AVFrame還含有其他一些成員數據,比如。是否key_frame、已編碼圖像數 coded_picture_number、是否作爲參考幀reference、宏塊類型 *mb_type等等,這裏就不詳細敘述了。
/////////////////////////////////////////////////////////////////
鑑於img_convert在新版中已經不用,所以這裏只介紹一下效率更高的。sws_scale。
來看看它的函數定義:
int sws_scale(struct SwsContext *ctx, uint8_t* src[], int srcStride[], int srcSliceY, int srcSliceH, uint8_t* dst[], int dstStride[])
其中src和srcStride定義了輸入圖像的四個平面的數據起始指針和四個平面中每一行包含的像素的個數。
dst和dstStride是輸出變量,定義的是輸出圖像的四個平面的數據起始指針和四個平面包含的數據的大小。
爲什麼一個圖像有四個平面,可以找一下YUV格式的一些詳細介紹就可以明白。
當然,RGB格式是按照緊湊格式進行編碼的,因此只有一個平面,也就是說只要設置src[0]就可以,src[1],src[2],src[3]都爲 NULL。
我們就在設置src[0]和srcStride[0]的地方做文章。
按照一般處理src[0]和srcStride[0]分別設置爲起始圖像數據的開始和圖像每一行的像素個數。
那如果把src[0] 設置爲 width * ( height - 1) srcStride[0] = -height 結果會如何呢?是不是就會把圖像倒過來呢?
實際確實如此。進行圖像倒置的操作盡然如此簡單。這樣避免了人爲再添加一次圖像的反轉操作,提高了編碼的性能。
/////////////////////////////////////////////////////////////////
不發命令行工具了,需要的mail給我.
這裏提供一個windows平臺下使用ffmpeg的快捷方法,下面這個開發包內直接提供lib給開發人員使用。