使用 live555 直播來自 v4l2 的攝像頭圖像

http://blog.csdn.net/sunkwei/article/details/6605314

結合前面的 採集 v4l2 視頻, 使用 live555, 通過 rtsp 發佈實時流. capture.h, capture.cpp, vcompress.h, vcompress.cpp 需要參考前面幾片文章. 這裏僅僅貼出 v4l2_x264_service.cpp

  1. #include <stdio.h>  
  2. #include <stdlib.h>  
  3. #include <unistd.h>  
  4. #include <assert.h>  
  5.   
  6. #include <liveMedia.hh>  
  7. #include <BasicUsageEnvironment.hh>  
  8. #include <GroupsockHelper.hh>  
  9.   
  10. #include <sys/types.h>  
  11. #include <sys/syscall.h>  
  12.   
  13. #include "capture.h"  
  14. #include "vcompress.h"  
  15.   
  16. static UsageEnvironment *_env = 0;  
  17.   
  18. #define SINK_PORT 3030  
  19.   
  20. #define VIDEO_WIDTH 320  
  21. #define VIDEO_HEIGHT 240  
  22. #define FRAME_PER_SEC 5.0  
  23.   
  24. pid_t gettid()  
  25. {  
  26.     return syscall(SYS_gettid);  
  27. }  
  28.   
  29.   
  30. // 使用 webcam + x264  
  31. class WebcamFrameSource : public FramedSource  
  32. {  
  33.     void *mp_capture, *mp_compress; // v4l2 + x264 encoder  
  34.     int m_started;  
  35.     void *mp_token;  
  36.   
  37. public:  
  38.     WebcamFrameSource (UsageEnvironment &env)  
  39.         : FramedSource(env)  
  40.     {  
  41.         fprintf(stderr, "[%d] %s .... calling\n", gettid(), __func__);  
  42.         mp_capture = capture_open("/dev/video0", VIDEO_WIDTH, VIDEO_HEIGHT, PIX_FMT_YUV420P);  
  43.         if (!mp_capture) {  
  44.             fprintf(stderr, "%s: open /dev/video0 err\n", __func__);  
  45.             exit(-1);  
  46.         }  
  47.   
  48.         mp_compress = vc_open(VIDEO_WIDTH, VIDEO_HEIGHT, FRAME_PER_SEC);  
  49.         if (!mp_compress) {  
  50.             fprintf(stderr, "%s: open x264 err\n", __func__);  
  51.             exit(-1);  
  52.         }  
  53.   
  54.         m_started = 0;  
  55.         mp_token = 0;  
  56.     }  
  57.   
  58.     ~WebcamFrameSource ()  
  59.     {  
  60.         fprintf(stderr, "[%d] %s .... calling\n", gettid(), __func__);  
  61.           
  62.         if (m_started) {  
  63.             envir().taskScheduler().unscheduleDelayedTask(mp_token);  
  64.         }  
  65.   
  66.         if (mp_compress)  
  67.             vc_close(mp_compress);  
  68.         if (mp_capture)  
  69.             capture_close(mp_capture);  
  70.     }  
  71.   
  72. protected:  
  73.     virtual void doGetNextFrame ()  
  74.     {  
  75.         if (m_started) return;  
  76.         m_started = 1;  
  77.   
  78.         // 根據 fps, 計算等待時間  
  79.         double delay = 1000.0 / FRAME_PER_SEC;  
  80.         int to_delay = delay * 1000;    // us  
  81.   
  82.         mp_token = envir().taskScheduler().scheduleDelayedTask(to_delay,  
  83.                 getNextFrame, this);  
  84.     }  
  1. virtual unsigned maxFrameSize() const        // 這個很重要, 如果不設置, 可能導致 getNextFrame() 出現 fMaxSize 小於實際編碼幀的情況, 導致圖像不完整  
  1. {    return 100*1024; }  
  1. private:  
  2.     static void getNextFrame (void *ptr)  
  3.     {  
  4.         ((WebcamFrameSource*)ptr)->getNextFrame1();  
  5.     }  
  6.   
  7.     void getNextFrame1 ()  
  8.     {  
  9.         // capture:  
  10.         Picture pic;  
  11.         if (capture_get_picture(mp_capture, &pic) < 0) {  
  12.             fprintf(stderr, "==== %s: capture_get_picture err\n", __func__);  
  13.             m_started = 0;  
  14.             return;  
  15.         }  
  16.   
  17.         // compress  
  18.         const void *outbuf;  
  19.         int outlen;  
  20.         if (vc_compress(mp_compress, pic.data, pic.stride, &outbuf, &outlen) < 0) {  
  21.             fprintf(stderr, "==== %s: vc_compress err\n", __func__);  
  22.             m_started = 0;  
  23.             return;  
  24.         }  
  25.   
  26.         int64_t pts, dts;  
  27.         int key;  
  28.         vc_get_last_frame_info(mp_compress, &key, &pts, &dts);  
  29.   
  30.         // save outbuf  
  31.         gettimeofday(&fPresentationTime, 0);  
  32.         fFrameSize = outlen;  
  33.         if (fFrameSize > fMaxSize) {  
  34.             fNumTruncatedBytes = fFrameSize - fMaxSize;  
  35.             fFrameSize = fMaxSize;  
  36.         }  
  37.         else {  
  38.             fNumTruncatedBytes = 0;  
  39.         }  
  40.   
  41.         memmove(fTo, outbuf, fFrameSize);  
  42.   
  43.         // notify  
  44.         afterGetting(this);  
  45.   
  46.         m_started = 0;  
  47.     }  
  48. };  
  49.   
  50. class WebcamOndemandMediaSubsession : public OnDemandServerMediaSubsession  
  51. {  
  52. public:  
  53.     static WebcamOndemandMediaSubsession *createNew (UsageEnvironment &env, FramedSource *source)  
  54.     {  
  55.         return new WebcamOndemandMediaSubsession(env, source);  
  56.     }  
  57.   
  58. protected:  
  59.     WebcamOndemandMediaSubsession (UsageEnvironment &env, FramedSource *source)  
  60.         : OnDemandServerMediaSubsession(env, True) // reuse the first source  
  61.     {  
  62.         fprintf(stderr, "[%d] %s .... calling\n", gettid(), __func__);  
  63.         mp_source = source;  
  64.         mp_sdp_line = 0;  
  65.     }  
  66.   
  67.     ~WebcamOndemandMediaSubsession ()  
  68.     {  
  69.         fprintf(stderr, "[%d] %s .... calling\n", gettid(), __func__);  
  70.         if (mp_sdp_line) free(mp_sdp_line);  
  71.     }  
  72.   
  73. private:  
  74.     static void afterPlayingDummy (void *ptr)  
  75.     {  
  76.         fprintf(stderr, "[%d] %s .... calling\n", gettid(), __func__);  
  77.         // ok  
  78.         WebcamOndemandMediaSubsession *This = (WebcamOndemandMediaSubsession*)ptr;  
  79.         This->m_done = 0xff;  
  80.     }  
  81.   
  82.     static void chkForAuxSDPLine (void *ptr)  
  83.     {  
  84.         WebcamOndemandMediaSubsession *This = (WebcamOndemandMediaSubsession *)ptr;  
  85.         This->chkForAuxSDPLine1();  
  86.     }  
  87.   
  88.     void chkForAuxSDPLine1 ()  
  89.     {  
  90.         fprintf(stderr, "[%d] %s .... calling\n", gettid(), __func__);  
  91.         if (mp_dummy_rtpsink->auxSDPLine())  
  92.             m_done = 0xff;  
  93.         else {  
  94.             int delay = 100*1000;   // 100ms  
  95.             nextTask() = envir().taskScheduler().scheduleDelayedTask(delay,  
  96.                     chkForAuxSDPLine, this);  
  97.         }  
  98.     }  
  99.   
  100. protected:  
  101.     virtual const char *getAuxSDPLine (RTPSink *sink, FramedSource *source)  
  102.     {  
  103.         fprintf(stderr, "[%d] %s .... calling\n", gettid(), __func__);  
  104.         if (mp_sdp_line) return mp_sdp_line;  
  105.   
  106.         mp_dummy_rtpsink = sink;  
  107.         mp_dummy_rtpsink->startPlaying(*source, 0, 0);  
  108.         //mp_dummy_rtpsink->startPlaying(*source, afterPlayingDummy, this);  
  109.         chkForAuxSDPLine(this);  
  110.         m_done = 0;  
  111.         envir().taskScheduler().doEventLoop(&m_done);  
  112.         mp_sdp_line = strdup(mp_dummy_rtpsink->auxSDPLine());  
  113.         mp_dummy_rtpsink->stopPlaying();  
  114.   
  115.         return mp_sdp_line;  
  116.     }  
  117.   
  118.     virtual RTPSink *createNewRTPSink(Groupsock *rtpsock, unsigned char type, FramedSource *source)  
  119.     {  
  120.         fprintf(stderr, "[%d] %s .... calling\n", gettid(), __func__);  
  121.         return H264VideoRTPSink::createNew(envir(), rtpsock, type);  
  122.     }  
  123.   
  124.     virtual FramedSource *createNewStreamSource (unsigned sid, unsigned &bitrate)  
  125.     {  
  126.         fprintf(stderr, "[%d] %s .... calling\n", gettid(), __func__);  
  127.         bitrate = 500;  
  128.         return H264VideoStreamFramer::createNew(envir(), new WebcamFrameSource(envir()));  
  129.     }  
  130.   
  131. private:  
  132.     FramedSource *mp_source;    // 對應 WebcamFrameSource  
  133.     char *mp_sdp_line;  
  134.     RTPSink *mp_dummy_rtpsink;  
  135.     char m_done;  
  136. };  
  137.   
  138. static void test_task (void *ptr)  
  139. {  
  140.     fprintf(stderr, "test: task ....\n");  
  141.     _env->taskScheduler().scheduleDelayedTask(100000, test_task, 0);  
  142. }  
  143.   
  144. static void test (UsageEnvironment &env)  
  145. {  
  146.     fprintf(stderr, "test: begin...\n");  
  147.   
  148.     char done = 0;  
  149.     int delay = 100 * 1000;  
  150.     env.taskScheduler().scheduleDelayedTask(delay, test_task, 0);  
  151.     env.taskScheduler().doEventLoop(&done);  
  152.   
  153.     fprintf(stderr, "test: end..\n");  
  154. }  
  155.   
  156. int main (int argc, char **argv)  
  157. {  
  158.     // env  
  159.     TaskScheduler *scheduler = BasicTaskScheduler::createNew();  
  160.     _env = BasicUsageEnvironment::createNew(*scheduler);  
  161.   
  162.     // test  
  163.     //test(*_env);  
  164.   
  165.     // rtsp server  
  166.     RTSPServer *rtspServer = RTSPServer::createNew(*_env, 8554);  
  167.     if (!rtspServer) {  
  168.         fprintf(stderr, "ERR: create RTSPServer err\n");  
  169.         ::exit(-1);  
  170.     }  
  171.   
  172.     // add live stream  
  173.     do {  
  174.         WebcamFrameSource *webcam_source = 0;  
  175.   
  176.         ServerMediaSession *sms = ServerMediaSession::createNew(*_env, "webcam", 0, "Session from /dev/video0");   
  177.         sms->addSubsession(WebcamOndemandMediaSubsession::createNew(*_env, webcam_source));  
  178.         rtspServer->addServerMediaSession(sms);  
  179.   
  180.         char *url = rtspServer->rtspURL(sms);  
  181.         *_env << "using url \"" << url << "\"\n";  
  182.         delete [] url;  
  183.     } while (0);  
  184.   
  185.     // run loop  
  186.     _env->taskScheduler().doEventLoop();  
  187.   
  188.     return 1;  
  189. }  

需要 live555 + libavcodec + libswscale + libx264, client 使用 vlc, mplayer, quicktime, .....
發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章