OpenCV+海康威視攝像頭的實時讀取 OpenCV+海康威視攝像頭的實時讀取

OpenCV+海康威視攝像頭的實時讀取

本文由 @lonelyrains出品,轉載請註明出處。
文章鏈接: http://blog.csdn.net/lonelyrains/article/details/50350052

之前沒想過會有這麼多朋友遇到問題,所以建了一個qq羣536898072,專門供大家以後一起交流討論圖像和機器學習的工程實踐問題。

環境

配置

  • 保證使用SADP工具可以識別攝像頭,然後配置IP與電腦在同一個網段。
    這裏寫圖片描述
  • 再保證可以從瀏覽器中訪問。賬號密碼默認的一般是admin、a123456789(老版本的攝像頭密碼是12345)。
    這裏寫圖片描述
    登錄成功後可能要求下載WebComponent控件,下載好了安裝便是。如果仍然出現如下畫面:
    這裏寫圖片描述
    則換一種瀏覽器試。一般是默認瀏覽器沒問題的。
    這裏寫圖片描述
  • 配置使用sdk中自帶的ClientDemo.exe工具可以訪問
    這裏寫圖片描述
    這裏寫圖片描述
  • 配置sdk開發環境
    – opencv的配置
    這裏不展開講opencv的配置,僅說明需要配置opencv環境變量、設置好對應的vs開發環境的屬性配置
    這裏寫圖片描述
    這裏寫圖片描述
    這裏寫圖片描述
    – 海康威視sdk屬性配置
    因爲是64位環境,爲了增強屬性配置的內聚性,單獨添加新項目屬性表,設置海康威視sdk的屬性
    這裏寫圖片描述
    這裏寫圖片描述
    這裏寫圖片描述
    這裏寫圖片描述
    依賴庫寫全,爲:
    HCNetSDK.lib;PlayCtrl.lib;ws2_32.lib;winmm.lib;GdiPlus.lib;IPHlpApi.Lib;%(AdditionalDependencies)

代碼及說明

#include <opencv\cv.h>
#include <opencv\highgui.h>

#include <iostream>

#include <cstdio>
#include <cstring>
#include <iostream>
#include <windows.h>
#include <HCNetSDK.h>
/*#include "PlayM4.h"*/
#include <plaympeg4.h>
#include <opencv2\opencv.hpp>
#include <time.h>

#include "global.h"
#include "readCamera.h"

#define USECOLOR 1

using namespace cv;
using namespace std;

//--------------------------------------------
int iPicNum=0;//Set channel NO.
LONG nPort=-1;
HWND hWnd=NULL;


void yv12toYUV(char *outYuv, char *inYv12, int width, int height,int widthStep)
{
    int col,row;
    unsigned int Y,U,V;
    int tmp;
    int idx;

    //printf("widthStep=%d.\n",widthStep);

    for (row=0; row<height; row++)
    {
        idx=row * widthStep;
        int rowptr=row*width;

        for (col=0; col<width; col++)
        {
            //int colhalf=col>>1;
            tmp = (row/2)*(width/2)+(col/2);
            //         if((row==1)&&( col>=1400 &&col<=1600))
            //         { 
            //          printf("col=%d,row=%d,width=%d,tmp=%d.\n",col,row,width,tmp);
            //          printf("row*width+col=%d,width*height+width*height/4+tmp=%d,width*height+tmp=%d.\n",row*width+col,width*height+width*height/4+tmp,width*height+tmp);
            //         } 
            Y=(unsigned int) inYv12[row*width+col];
            U=(unsigned int) inYv12[width*height+width*height/4+tmp];
            V=(unsigned int) inYv12[width*height+tmp];
            //         if ((col==200))
            //         { 
            //         printf("col=%d,row=%d,width=%d,tmp=%d.\n",col,row,width,tmp);
            //         printf("width*height+width*height/4+tmp=%d.\n",width*height+width*height/4+tmp);
            //         return ;
            //         }
            if((idx+col*3+2)> (1200 * widthStep))
            {
                //printf("row * widthStep=%d,idx+col*3+2=%d.\n",1200 * widthStep,idx+col*3+2);
            } 
            outYuv[idx+col*3]   = Y;
            outYuv[idx+col*3+1] = U;
            outYuv[idx+col*3+2] = V;
        }
    }
    //printf("col=%d,row=%d.\n",col,row);
}



//解碼回調 視頻爲YUV數據(YV12),音頻爲PCM數據
void CALLBACK DecCBFun(long nPort,char * pBuf,long nSize,FRAME_INFO * pFrameInfo, long nReserved1,long nReserved2)
{
    long lFrameType = pFrameInfo->nType;    

    if(lFrameType ==T_YV12)
    {
#if USECOLOR
        //int start = clock();
        static IplImage* pImgYCrCb = cvCreateImage(cvSize(pFrameInfo->nWidth,pFrameInfo->nHeight), 8, 3);//得到圖像的Y分量  
        yv12toYUV(pImgYCrCb->imageData, pBuf, pFrameInfo->nWidth,pFrameInfo->nHeight,pImgYCrCb->widthStep);//得到全部RGB圖像
        static IplImage* pImg = cvCreateImage(cvSize(pFrameInfo->nWidth,pFrameInfo->nHeight), 8, 3);  
        cvCvtColor(pImgYCrCb,pImg,CV_YCrCb2RGB);  
        //int end = clock();
#else
        static IplImage* pImg = cvCreateImage(cvSize(pFrameInfo->nWidth,pFrameInfo->nHeight), 8, 1);  
        memcpy(pImg->imageData,pBuf,pFrameInfo->nWidth*pFrameInfo->nHeight); 
#endif
        //printf("%d\n",end-start);

        Mat frametemp(pImg),frame;

        //frametemp.copyTo(frame);
//      cvShowImage("IPCamera",pImg);
//      cvWaitKey(1);
        EnterCriticalSection(&g_cs_frameList);
        g_frameList.push_back(frametemp);
        LeaveCriticalSection(&g_cs_frameList);

#if USECOLOR
//      cvReleaseImage(&pImgYCrCb);
//      cvReleaseImage(&pImg);
#else
        /*cvReleaseImage(&pImg);*/
#endif
        //此時是YV12格式的視頻數據,保存在pBuf中,可以fwrite(pBuf,nSize,1,Videofile);
        //fwrite(pBuf,nSize,1,fp);
    }
    /***************
    else if (lFrameType ==T_AUDIO16)
    {
    //此時是音頻數據,數據保存在pBuf中,可以fwrite(pBuf,nSize,1,Audiofile);

    }
    else
    {

    }
    *******************/

}


///實時流回調
void CALLBACK fRealDataCallBack(LONG lRealHandle,DWORD dwDataType,BYTE *pBuffer,DWORD dwBufSize,void *pUser)
{
    DWORD dRet;
    switch (dwDataType)
    {
    case NET_DVR_SYSHEAD:    //系統頭
        if (!PlayM4_GetPort(&nPort)) //獲取播放庫未使用的通道號
        {
            break;
        }
        if(dwBufSize > 0)
        {
            if (!PlayM4_OpenStream(nPort,pBuffer,dwBufSize,1024*1024))
            {
                dRet=PlayM4_GetLastError(nPort);
                break;
            }
            //設置解碼回調函數 只解碼不顯示
            if (!PlayM4_SetDecCallBack(nPort,DecCBFun))
            {
                dRet=PlayM4_GetLastError(nPort);
                break;
            }

            //設置解碼回調函數 解碼且顯示
            //if (!PlayM4_SetDecCallBackEx(nPort,DecCBFun,NULL,NULL))
            //{
            //  dRet=PlayM4_GetLastError(nPort);
            //  break;
            //}

            //打開視頻解碼
            if (!PlayM4_Play(nPort,hWnd))
            {
                dRet=PlayM4_GetLastError(nPort);
                break;
            }

            //打開音頻解碼, 需要碼流是複合流
//          if (!PlayM4_PlaySound(nPort))
//          {
//              dRet=PlayM4_GetLastError(nPort);
//              break;
//          }       
        }
        break;

    case NET_DVR_STREAMDATA:   //碼流數據
        if (dwBufSize > 0 && nPort != -1)
        {
            BOOL inData=PlayM4_InputData(nPort,pBuffer,dwBufSize);
            while (!inData)
            {
                Sleep(10);
                inData=PlayM4_InputData(nPort,pBuffer,dwBufSize);
                OutputDebugString(L"PlayM4_InputData failed \n");   
            }
        }
        break;  
    }       
}

void CALLBACK g_ExceptionCallBack(DWORD dwType, LONG lUserID, LONG lHandle, void *pUser)
{
    char tempbuf[256] = {0};
    switch(dwType) 
    {
    case EXCEPTION_RECONNECT:    //預覽時重連
        printf("----------reconnect--------%d\n", time(NULL));
        break;
    default:
        break;
    }
}

unsigned readCamera(void *param)
{
    //---------------------------------------
    // 初始化
    NET_DVR_Init();
    //設置連接時間與重連時間
    NET_DVR_SetConnectTime(2000, 1);
    NET_DVR_SetReconnect(10000, true);

    //---------------------------------------
    // 獲取控制檯窗口句柄
    //HMODULE hKernel32 = GetModuleHandle((LPCWSTR)"kernel32");
    //GetConsoleWindow = (PROCGETCONSOLEWINDOW)GetProcAddress(hKernel32,"GetConsoleWindow");

    //---------------------------------------
    // 註冊設備
    LONG lUserID;
    NET_DVR_DEVICEINFO_V30 struDeviceInfo;
    lUserID = NET_DVR_Login_V30("192.168.2.64", 8000, "admin", "a123456789", &struDeviceInfo);
    if (lUserID < 0)
    {
        printf("Login error, %d\n", NET_DVR_GetLastError());
        NET_DVR_Cleanup();
        return -1;
    }

    //---------------------------------------
    //設置異常消息回調函數
    NET_DVR_SetExceptionCallBack_V30(0, NULL,g_ExceptionCallBack, NULL);


    //cvNamedWindow("IPCamera");
    //---------------------------------------
    //啓動預覽並設置回調數據流 
    NET_DVR_CLIENTINFO ClientInfo;
    ClientInfo.lChannel = 1;        //Channel number 設備通道號
    ClientInfo.hPlayWnd = NULL;     //窗口爲空,設備SDK不解碼只取流
    ClientInfo.lLinkMode = 0;       //Main Stream
    ClientInfo.sMultiCastIP = NULL;

    LONG lRealPlayHandle;
    lRealPlayHandle = NET_DVR_RealPlay_V30(lUserID,&ClientInfo,fRealDataCallBack,NULL,TRUE);
    if (lRealPlayHandle<0)
    {
        printf("NET_DVR_RealPlay_V30 failed! Error number: %d\n",NET_DVR_GetLastError());
        return 0;
    }

    //cvWaitKey(0);
    Sleep(-1);

    //fclose(fp);
    //---------------------------------------
    //關閉預覽
    if(!NET_DVR_StopRealPlay(lRealPlayHandle))
    {
        printf("NET_DVR_StopRealPlay error! Error number: %d\n",NET_DVR_GetLastError());
        return 0;
    }
    //註銷用戶
    NET_DVR_Logout(lUserID);
    NET_DVR_Cleanup();

    return 0;
}
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7
  • 8
  • 9
  • 10
  • 11
  • 12
  • 13
  • 14
  • 15
  • 16
  • 17
  • 18
  • 19
  • 20
  • 21
  • 22
  • 23
  • 24
  • 25
  • 26
  • 27
  • 28
  • 29
  • 30
  • 31
  • 32
  • 33
  • 34
  • 35
  • 36
  • 37
  • 38
  • 39
  • 40
  • 41
  • 42
  • 43
  • 44
  • 45
  • 46
  • 47
  • 48
  • 49
  • 50
  • 51
  • 52
  • 53
  • 54
  • 55
  • 56
  • 57
  • 58
  • 59
  • 60
  • 61
  • 62
  • 63
  • 64
  • 65
  • 66
  • 67
  • 68
  • 69
  • 70
  • 71
  • 72
  • 73
  • 74
  • 75
  • 76
  • 77
  • 78
  • 79
  • 80
  • 81
  • 82
  • 83
  • 84
  • 85
  • 86
  • 87
  • 88
  • 89
  • 90
  • 91
  • 92
  • 93
  • 94
  • 95
  • 96
  • 97
  • 98
  • 99
  • 100
  • 101
  • 102
  • 103
  • 104
  • 105
  • 106
  • 107
  • 108
  • 109
  • 110
  • 111
  • 112
  • 113
  • 114
  • 115
  • 116
  • 117
  • 118
  • 119
  • 120
  • 121
  • 122
  • 123
  • 124
  • 125
  • 126
  • 127
  • 128
  • 129
  • 130
  • 131
  • 132
  • 133
  • 134
  • 135
  • 136
  • 137
  • 138
  • 139
  • 140
  • 141
  • 142
  • 143
  • 144
  • 145
  • 146
  • 147
  • 148
  • 149
  • 150
  • 151
  • 152
  • 153
  • 154
  • 155
  • 156
  • 157
  • 158
  • 159
  • 160
  • 161
  • 162
  • 163
  • 164
  • 165
  • 166
  • 167
  • 168
  • 169
  • 170
  • 171
  • 172
  • 173
  • 174
  • 175
  • 176
  • 177
  • 178
  • 179
  • 180
  • 181
  • 182
  • 183
  • 184
  • 185
  • 186
  • 187
  • 188
  • 189
  • 190
  • 191
  • 192
  • 193
  • 194
  • 195
  • 196
  • 197
  • 198
  • 199
  • 200
  • 201
  • 202
  • 203
  • 204
  • 205
  • 206
  • 207
  • 208
  • 209
  • 210
  • 211
  • 212
  • 213
  • 214
  • 215
  • 216
  • 217
  • 218
  • 219
  • 220
  • 221
  • 222
  • 223
  • 224
  • 225
  • 226
  • 227
  • 228
  • 229
  • 230
  • 231
  • 232
  • 233
  • 234
  • 235
  • 236
  • 237
  • 238
  • 239
  • 240
  • 241
  • 242
  • 243
  • 244
  • 245
  • 246
  • 247
  • 248
  • 249
  • 250
  • 251
  • 252
  • 253
  • 254
  • 255
  • 256
  • 257
  • 258
  • 259
  • 260
  • 261
  • 262
  • 263
  • 264
  • 265
  • 266
  • 267
  • 268
  • 269

其中最終得到的幀保存在g_frameList.push_back(frametemp);中。前後設置了對應的鎖,用來對該幀序列的讀寫進行保護。這一部分內容是要自己完成的。即定義變量:

CRITICAL_SECTION g_cs_frameList;
std::list<Mat> g_frameList;

主函數中的調用代碼,先建立線程,調用上述讀攝像頭的函數的回調,並把讀到的幀序列保存在g_frameList中,然後再讀取該序列,保存到Mat裏即可:

int main()
{   
    HANDLE hThread;
    unsigned threadID;
    Mat frame1;

    InitializeCriticalSection(&g_cs_frameList);
    hThread = (HANDLE)_beginthreadex( NULL, 0, &readCamera, NULL, 0, &threadID );
    ...
    EnterCriticalSection(&g_cs_frameList);
    if(g_frameList.size())
    {
        list<Mat>::iterator it;
        it = g_frameList.end();
        it--;
        Mat dbgframe = (*(it));
        //imshow("frame from camera",dbgframe);
        //dbgframe.copyTo(frame1);
        //dbgframe.release();
        (*g_frameList.begin()).copyTo(frame[i]);
        frame1 = dbgframe;
        g_frameList.pop_front();
    }
    g_frameList.clear(); // 丟掉舊的幀
    LeaveCriticalSection(&g_cs_frameList);
    ...

    return 0;
}
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7
  • 8
  • 9
  • 10
  • 11
  • 12
  • 13
  • 14
  • 15
  • 16
  • 17
  • 18
  • 19
  • 20
  • 21
  • 22
  • 23
  • 24
  • 25
  • 26
  • 27
  • 28
  • 29
					<link href="https://csdnimg.cn/release/phoenix/mdeditor/markdown_views-258a4616f7.css" rel="stylesheet">
                  </div>
</article>
發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章