Android webrtc使用USB摄像头

在疫情爆发的2020年,公司的Android项目要求支持外置摄像头,即要求支持USB摄像头;一脸懵逼的我从来没听过Android设备能支持USB摄像头的,只知道Android大机器能接外置的摄像头,但插口是接在Android机器上的前置和后置接口,也就是说可以通过Android自带的Camera类或Camera2类中API直接调用的;然而项目要的是在包含前置和后置摄像头之后,还要有USB摄像头,懵逼的我立马上网找这方面的资料,找到了UVCCamera和openCV,但下了openCV的demo之后并没有任何关于USB摄像头的玩意,转战UVCCamera;了解了UVCCamera之后,还要实现通过UVCCamera取流并给到webrtc

注:阅读本篇需要简单了解webrtc如何通过**Capturer类产生视频流并转化

一、UVCCamera下拉与编译

1、UVCCamra下拉

UVCCamera的github地址为:https://github.com/saki4510t/UVCCamera.git

2、UVCCamera编译和demo测试

首先,下载了UVCCamera并且通过AS打开之后,你一定非常的迫不及待的想要看看USB摄像头使用起来是怎么样的;但问题却来了

2.1、一直在sync不好

原因:网络问题

解决:将distributionUrl地址改成本机已有的版本,或者通过浏览器下载并放到系统android/.gradle文件夹中,具体文件夹地址可另外自行百度存放

 2.2、Process 'command '.......\Android\sdk\ndk-bundle/ndk-build.cmd'' finished with non-zero exit value 2

原因:ndk版本不兼容,这项目感觉有点老,作者又不更新,无奈自己能力也没那么强,也不会改,那么只能将ndk版本降低,降低到ndk r16b或者ndk r14b,下载地址为:https://developer.android.google.cn/ndk/downloads/older_releases;无奈这个官网地址上已无法下载太旧的ndk了,那么只能选择从AS中获取,好在AS最低有支持到ndk16的,要是以后AS也把ndk16给过滤掉,那我也暂时不知道怎么办了

下载好ndk之后,将UVCCamera的NDK版本改成16的这个:

2.3、无法出画面

若出现所有的test demo都能够打开,但无法出现画面,Logcat日志有:[2495*UVCCamera.cpp:172:connect]:could not open camera:err=-1。之类的,则将libuvccamera/src/main/jni/Application.mk中的

NDK_TOOLCHAIN_VERSION := 4.9

注释打开

2.4、运行调试过程当中出现[5050*UVCPreview.cpp:507:prepare_preview]:could not negotiate with camera:err=-51

可能是uvcCamera.setPreviewSize的预览格式不正确,更改预览格式

 

二、VideoCapturer的子类

在使用webrtc视频通话时,其中有一步是需要通过Camera1Capturer或Camera2Capturer来打开手机摄像头,并调用startCapturer方法开始录制并返回本地流数据,先来看下VideoCapturer和Camera1Capturer/Camera2Capturer的关系

可以看到Camera1Capturer和Camera2Capturer的曾祖父类是VideoCapturer类,该类是一个接口,定义了一些方法

可以看到,该类的方法依次为初始化、开始录像、暂停录像、改变录像规格(分辨率)、释放和返回是否截屏的方法,那么从这里可以知道,子类Camera1Capturer(以下都只以Camera1Capturer做讨论)也会继承这些方法,那么我们研究的重点在于初始化和开始录像,接着我们看CameraVideoCapturer类做了什么;CameraVideoCapturer这个类当中有两个过时的方法(不讨论),还有一个静态内部类CameraStatistics,直接翻译一下就是相机统计,通过源码得知,该类只是开了个线程,通过surfaceTextureHelper对象每两秒执行一次,判断相机是否可用,并且记录帧的数量。

2.1、CameraCapturer

看完CameraVideoCapturer之后,发现该类并没有对VideoCapturer接口中的方法进行实现,那么进而看子类CameraCapturer,首先是初始化方法initialze

该方法很简单,只是对上层传入的参数进行复制,但值得我们留意的是capturerObserver对象,根据webrtc视频通话流程,我们知道有个VideoSource对象,在创建VideoCapturer时候需要将videoSource.capturerObserver对象传进来;接着再看startCapture方法

可以看到startCapture方法当中调用了createSessionInternal方法,该方法又执行了createCameraSession方法,跟踪发现,createCameraSession是一个抽象的方法,而抽象方法被实现的地方正是Camera1Capturer类。

2.2、Camera1Session相机会话

该类主要实现对相机的开启和采集

通过源码得知,实例化Camera1Session之后就立马打开了相机,并且调用的是camera.startPreview方法,该方法是开启预览的方法,预览的返回接口则执行了listenForTextureFrames方法

到这里逐渐清晰,原来Camera开启预览,产生的帧数据是可以被采集到的,并且通过events.onFrameCaptured将帧数据传递出去;webrtc压根不是通过录像采集相机的流,而只是简单的开启预览就行;在此可能有人就会问,events是什么东西,别急,看Camera1Session的创建流程

而在前文我们看到的createSessionInternal方法中执行的createCameraSession方法传入的第二个参数,到这里我们可以知道,events应该是个接口或者是个抽象类,这样才能把采集到的数据传递到上层

而在CameraCapturer类当中,执行createCameraSession方法时传进的就是Events的一个实现对象,我们主要看onFrameCaptured实现

到此,我们知道最终的帧数据通过初始化initilaze方法传入的capturerObserver对象回调给videoSource对象,接着就是webrtc更底层的操作,最终得到流并传给对方或者本地显示。

三、UsbCapturer

分析完原有webrtc如何采集数据之后,我们可以发现关键点;第一、采集数据是直接通过startPreview就可以,那么UVCCamera也能对Usb摄像头进行打开预览关闭预览等操作;第二、采集到的数据最终通过videoSource.capturerObserver对象传出即可;

public class UsbCapturer implements VideoCapturer, USBMonitor.OnDeviceConnectListener, IFrameCallback {
    private static final String TAG = "UsbCapturer";
    private USBMonitor monitor;
    private SurfaceViewRenderer svVideoRender;
    private CapturerObserver capturerObserver;
    private int mFps;
    private UVCCamera mCamera;

    private final Object mSync = new Object();
    private boolean isRegister;
    private USBMonitor.UsbControlBlock ctrlBlock;

    public UsbCapturer(Context context, SurfaceViewRenderer svVideoRender) {
        this.svVideoRender = svVideoRender;
        monitor = new USBMonitor(context, this);
    }

    @Override
    public void initialize(SurfaceTextureHelper surfaceTextureHelper, Context context, CapturerObserver capturerObserver) {
        this.capturerObserver = capturerObserver;
    }

    @Override
    public void startCapture(int width, int height, int fps) {
        this.mFps = fps;
        if (!isRegister) {
            isRegister = true;
            monitor.register();
        } else if (ctrlBlock != null) {
            startPreview();
        }
    }

    @Override
    public void stopCapture() {
        if (mCamera != null) {
            mCamera.destroy();
            mCamera = null;
        }
    }

    @Override
    public void changeCaptureFormat(int i, int i1, int i2) {

    }

    @Override
    public void dispose() {
        monitor.unregister();
        monitor.destroy();
        monitor = null;
    }

    @Override
    public boolean isScreencast() {
        return false;
    }

    @Override
    public void onAttach(UsbDevice device) {
        LogKt.Loges(TAG, "onAttach:");
        monitor.requestPermission(device);
    }

    @Override
    public void onDettach(UsbDevice device) {
        LogKt.Loges(TAG, "onDettach:");
        if (mCamera != null) {
            mCamera.close();
        }
    }

    @Override
    public void onConnect(UsbDevice device, USBMonitor.UsbControlBlock ctrlBlock, boolean createNew) {
        LogKt.Loges(TAG, "onConnect:");
        UsbCapturer.this.ctrlBlock = ctrlBlock;
        startPreview();
    }

    @Override
    public void onDisconnect(UsbDevice device, USBMonitor.UsbControlBlock ctrlBlock) {
        LogKt.Loges(TAG, "onDisconnect:");
        if (mCamera != null) {
            mCamera.close();
        }
    }

    @Override
    public void onCancel(UsbDevice device) {
        LogKt.Loges(TAG, "onCancel:");
    }

    private ReentrantLock imageArrayLock = new ReentrantLock();

    @Override
    public void onFrame(ByteBuffer frame) {
        if (frame != null) {
            imageArrayLock.lock();

            byte[] imageArray = new byte[frame.remaining()];
            frame.get(imageArray);
            //关键
            long imageTime = TimeUnit.MILLISECONDS.toNanos(SystemClock.elapsedRealtime());
            VideoFrame.Buffer mNV21Buffer = new NV21Buffer(imageArray
                    , UVCCamera.DEFAULT_PREVIEW_WIDTH, UVCCamera.DEFAULT_PREVIEW_HEIGHT
                    , null);
            VideoFrame mVideoFrame = new VideoFrame(mNV21Buffer, 0, imageTime);
            capturerObserver.onFrameCaptured(mVideoFrame);
            mVideoFrame.release();
            imageArrayLock.unlock();
        }
    }

    public USBMonitor getMonitor() {
        return this.monitor;
    }

    private void startPreview() {
        synchronized (mSync) {
            if (mCamera != null) {
                mCamera.destroy();
            }
        }

        UVCCamera camera = new UVCCamera();
        camera.setAutoFocus(true);
        camera.setAutoWhiteBlance(true);
        try {
            camera.open(ctrlBlock);
//            camera.setPreviewSize(UVCCamera.DEFAULT_PREVIEW_WIDTH, UVCCamera.DEFAULT_PREVIEW_HEIGHT, UVCCamera.PIXEL_FORMAT_RAW);
            camera.setPreviewSize(UVCCamera.DEFAULT_PREVIEW_WIDTH, UVCCamera.DEFAULT_PREVIEW_HEIGHT, FpsType.FPS_15, mFps, UVCCamera.PIXEL_FORMAT_RAW, 1.0f);
        } catch (Exception e) {
            try {
//                camera.setPreviewSize(UVCCamera.DEFAULT_PREVIEW_WIDTH, UVCCamera.DEFAULT_PREVIEW_HEIGHT, UVCCamera.DEFAULT_PREVIEW_MODE);
                camera.setPreviewSize(UVCCamera.DEFAULT_PREVIEW_WIDTH, UVCCamera.DEFAULT_PREVIEW_HEIGHT, FpsType.FPS_15, mFps, UVCCamera.DEFAULT_PREVIEW_MODE, 1.0f);
            } catch (Exception e1) {
                camera.destroy();
                camera = null;
            }
        }

        if (camera != null) {
            if (svVideoRender != null) {
                camera.setPreviewDisplay(svVideoRender.getHolder().getSurface());
            }
            camera.setFrameCallback(UsbCapturer.this, UVCCamera.PIXEL_FORMAT_YUV420SP);
            camera.startPreview();
        }
        synchronized (mSync) {
            mCamera = camera;
        }
    }

    public void setSvVideoRender(YQRTCSurfaceViewRenderer svVideoRender) {
        this.svVideoRender = svVideoRender;
    }

}

注:使用UsbCapturer需要传入预览View。

后序:其实一开始我分析完上述的流程之后,并不知道该如何着手设计UsbCapturer,直到在github上看到这个之后https://github.com/sutogan4ik/android-webrtc-usb-camera,才一下子恍然大悟,非常感谢这位大佬,虽然他的代码在我项目中运行无效,但修改一下之后也就完美了,另外当中里面使用的方法 capturerObserver.onByteBufferFrameCaptured在新版的webrtc中已经不存在了

發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章