由於使用 MediaMuxer 進行文件封裝不支持邊轉碼邊分塊,所以選擇通過使用 FFmpeg muxer 進行文件封裝, 在封裝過程中完成文件的分塊。
FFmpeg 音視頻複用器(Muxer)
音視頻封裝 - 將視頻壓縮數據(例如H.264)和音頻壓縮數據(例如AAC)合併到一個封裝格式數據(例如MP4)中去。如圖所示:
參考雷霄華的博客,整理出 FFmpeg 封裝音視頻的流程:
創建 AVFormatContext 結構體
調用 avformat_alloc_output_context2() 方法初始化 AVFormatContext 關於輸出文件相關屬性
-
avio_open2() - 打開輸出文件
AVDictionary *options = NULL; // 指定分塊文件的大小 av_dict_set(&options, "BLK_BUF_TAG", buff, 0); // 回調函數結構體 AVIOInterruptCB interrupt_callBack = (AVIOInterruptCB *)malloc(sizeof(AVIOInterruptCB)); memset(interrupt_callBack, 0, sizeof(*interrupt_callBack)); // 指定回調函數,處理分塊文件時調用 interrupt_callBack->callback_blk = ffmuxer_notify_blk_callback; interrupt_callBack->opaque = NULL; interrupt_callBack->handle = (void *)pMuxer; res = avio_open2(&fmtCtx->pb, out, AVIO_FLAG_BLK_WRITE, interrupt_callBack, &options);
通過 avformat_new_stream 創建 video & audio stream 並設置相關配置信息
avformat_write_header() - 寫入文件頭
av_interleaved_write_frame() - 寫入一個 AVPacket 到輸出文件
av_write_trail() - 寫入文件尾
關於 FFmpeg 複用音視頻的流程介紹到此,總結一下重點就是:初始化相關結構體,配置屬性,寫入壓縮數據,釋放。 下面介紹在 MediaCodec 中如何調用:
因爲 MediaCodec 調用 FFmpeg 相關代碼是通過 jni 調用,這裏不展開介紹。下面的 native*** 方法均爲 FFmpeg 對應的原生方法
-
nativeMuxerOpen
初始化 FFmpeg muxer: 當 video&audio 編碼器的輸出 MediaFormat 均發生變化,說明編碼器即將輸出數據。此時即可初始化 FFmpeg muxer(執行 FFmpeg 複用流程中的 1,2,3步驟)
-
nativeAddAudioTrack & nativeAddVideoTrack
添加 video & audio stream: 編碼器輸出壓縮數據,且 flag 爲 BUFFER_FLAG_CODEC_CONFIG(即配置信息)時,
// 添加 video stream AVStream *stream = avformat_new_stream(fmtCtx, avcodec_find_encoder(codec)); stream->codec->width = info.videoWidth; stream->codec->height = info.videoHeight; stream->codec->extradata = (uint8_t *)av_mallocz(info.bufferLen + FF_INPUT_BUFFER_PADDING_SIZE); memc(stream->codec->extradata, info.buffer, info.bufferLen); stream->codec->extradata_size = info.bufferLen; // 添加 audio stream AVStream *stream = avformat_new_stream(fmtCtx, avcodec_find_encoder(codec)); stream->codec->sample_fmt = AV_SAMPLE_FMT_S32; stream->codec->sample_rate = info.audioSampleRate; stream->codec->channel_layout = getChannelLayout(info.audioChannel); stream->codec->channels = info.audioChannel; stream->codec->bit_rate = info.audioBitrate; stream->codec->extradata = (uint8_t *)av_mallocz(info.bufferLen + FF_INPUT_BUFFER_PADDING_SIZE); memc(stream->codec->extradata, info.buffer, info.bufferLen); stream->codec->extradata_size = info.bufferLen;
-
nativeWriteVideoStream & nativeWriteAudioStream
寫入 video & audio 壓縮數據:編碼器輸出壓縮數據,且 flag 不是 BUFFER_FLAG_CODEC_CONFIG:
// 寫入 video packet AVPacket packet; av_init_packet(&packet); packet.stream_index = pMuxer->videoIndex; packet.data = info.buffer; packet.size = info.bufferLen; packet.pts = rescaleTime(info.stamp, stream->time_base); packet.duration = 0; packet.dts = packet.pts; packet.pos = -1; // 關鍵幀 if (info.flag == BUFFER_FLAG_KEY_FRAME) { packet.flags |= AV_PKT_FLAG_KEY; } // 寫入一個 AVPacket 到輸出文件 int ret = av_interleaved_write_frame(fmtCtx, &packet);
// 寫入 audio packet AVPacket packet; av_init_packet(&packet); packet.stream_index = pMuxer->audioIndex; packet.data = buffer; packet.size = bufferLen; packet.pts = rescaleTime(stamp, stream->time_base); packet.dts = packet.pts; packet.pos = -1; // 寫入一個 AVPacket 到輸出文件 int ret = av_interleaved_write_frame(fmtCtx, &packet);
-
nativeMuxerClose
寫入文件尾及釋放相關結構體:當編碼完成後,調用 muxerclose 方法進行釋放:
if (pMuxer->videoStream) { avcodec_close(((AVStream *)pMuxer->videoStream)->codec); pMuxer->videoStream = 0; } if (pMuxer->audioStream) { avcodec_close(((AVStream *)pMuxer->audioStream)->codec); pMuxer->audioStream = 0; } if (pMuxer->pContext) { AVFormatContext *fmtCtx = (AVFormatContext *)pMuxer->pContext; // 寫入文件尾 av_write_trailer(fmtCtx); avio_close(fmtCtx->pb); avformat_free_context(fmtCtx); pMuxer->pContext = 0; }