【AR实验室】mulberryAR : ORBSLAM2+VVSION

  • 时间:
  • 浏览:0

本文转载请注明出处 —— polobymulberry-博客园

0x00 - 前言


mulberryAR是我业余时间弄的二个 AR引擎,目前主要支持单目视觉SLAM+3D渲染,因此支持iOS端,因此该引擎还都能否 很方便地移植到Android端。slam模块使用的是ORB-SLAM2,3d渲染模块使用的是VVSION渲染引擎。该引擎目前实现的功能为简单的3D模型摆放,用户还都能否 对3D模型进行平移、旋转和缩放。

先放两张mulberryAR的效果图。

0x01 - 单目视觉SLAM模块


单目视觉SLAM模块采用的是ORB-SLAM2。ORB-SLAM2是目前比较优秀的视觉SLAM系统,其输入为图像视频流,通过SLAM计算出每帧图像对应的相机位姿以及或多或少底部形态点对应的3D位置。不过mulberryAR目前只用到了每帧对应的相机位姿。

目前mulberryAR对ORB-SLAM2这样做这样来不多的修改,因此为了集成进mulberryAR中,必须对ORB-SLAM2的接口做出或多或少修改以适应iOS系统的移动设备。这人部分主要参考两份资料:

  • ORB_SLAM_iOS ORB-SLAM在iOS上的移植,作者去除了ORB-SLAM对ROS的依赖,并使用了iOS的Metal和Scene Kit进行渲染。相比ORB-SLAM2,还必须依赖boost库。
  • ORB-SLAM2注释版 作者对ORB-SLAM2进行了删改地注释,去掉 了BoW(Bag of Word)的二进制文件加载土辦法 。

修改1:ORB-SLAM2上方使用了BoW(Bag of Word)进行底部形态匹配。其中的BoW是通过加载ORB-SLAM2原始文件中的ORBvoc.txt获取的,不过移动端直接加载ORBVoc.txt文本文件来构建BoW非常耗时,在苹果机机苹果机机苹果机机苹果机机s上要几分钟时间。使用ORB-SLAM2注释版中Vocabulary/bin_vocabulary.cpp还都能否 将ORBVoc.txt转换为ORBVoc.bin。因此使用该版本DBoW2和g2o替换ORB-SLAM2中的DBoW2和g2o,ORB-SLAM2注释版上方的/Thirdparty/DBoW2/DBoW2/TemplatedVocabulary.h去掉 了loadFromBinaryFile函数,还都能否 直接加载ORBVoc.bin,在苹果机机苹果机机苹果机机苹果机机s去掉 载的时间也降到小于3秒钟。

修改2:ORB-SLAM2源码中的示例获取图像视频流的土辦法 是通过解析预先出理 好的视频文件,而mulberryAR必须通过苹果机机苹果机机苹果机机设备实时捕捉图像视频。这里必须使用iOS的视频捕捉模块。一现在开始捕捉土辦法 参考了我后来的博客【AR实验室】OpenGL ES绘制相机(OpenGL ES 1.0版本)中的0x02 - AVCaptureSession获取拍摄内容小节。获取到了图像就还都能否 调用ORB-SLAM2中的System::TrackMonocular函数求解位姿。注意TrackMonocular很耗时,全都一帮人构建二个 DISPATCH_QUEUE_SERIAL类型的多程序 ,并将TrackMonocular抛给它。另外在主多程序 dispatch_get_main_queue()中利用TrackMonocular得到的相机位姿进行绘制。

修改3:图形学中绘制二个 怪怪的要的矩阵:模型视图矩阵ModelView,全都我将3D模型从模型局部坐标系转化到相机坐标系的二个 转化矩阵。注意TrackMonocular函数返回的Tcw必须一定的转化还都能否 作为模型视图矩阵,这人步删改参考了ORB_SLAM_iOS中的出理 土辦法 ,将会我全都是很清楚如何会会要这样出理 ,尤其是两处取负号的部分,全都此处将代码列出供一帮人参考。

// poseR = mCurrentFrame.mTcw.rowRange(0,3).colRange(0,3);
// 当前帧变化矩阵的旋转部分
cv::Mat R = _slam->getCurrentPose_R();
// poseT = mCurrentFrame.mTcw.rowRange(0,3).col(3);
// 当前帧变化矩阵的平移部分
cv::Mat T = _slam->getCurrentPose_T();

// 将旋转矩阵转化为四元数,注意qy和qz的取了负号。
float qx,qy,qz,qw;
qw = sqrt(1.0 + R.at<float>(0,0) + R.at<float>(1,1) + R.at<float>(2,2)) / 2.0;
qx = (R.at<float>(2,1) - R.at<float>(1,2)) / (4*qw);
qy = -(R.at<float>(0,2) - R.at<float>(2,0)) / (4*qw);
qz = -(R.at<float>(1,0) - R.at<float>(0,1)) / (4*qw);
// 将四元数转化为旋转矩阵,即r1、r2、r3。因此将平移矩阵填充到r4。
// 注意其中T.at<float>(1)和T.at<float>(2)取了负号。
vec4f r1(1 - 2*qy*qy - 2*qz*qz, 2*qx*qy + 2*qz*qw, 2*qx*qz - 2*qy*qw, 0);
vec4f r2(2*qx*qy - 2*qz*qw, 1 - 2*qx*qx - 2*qz*qz, 2*qy*qz + 2*qx*qw, 0);
vec4f r3(2*qx*qz + 2*qy*qw, 2*qy*qz - 2*qx*qw, 1 - 2*qx*qx - 2*qy*qy, 0);
vec4f r4(T.at<float>(0), -T.at<float>(1), -T.at<float>(2), 1);

0x02 – 3D渲染引擎模块


3D渲染引擎模块使用的是VVSION渲染引擎。选泽 这款渲染引擎也是尝试过全都或多或少渲染土辦法 才决定的,主要代表为cocos2d-x、vvsion和原生opengl es。下面对着这人土辦法 的优缺点进行对比。

  cocos2d-x vvsion 原生opengl es
优点 1.支持的渲染组件很充沛,基本无需须后期去掉 新的功能 1.相对于cocos2d-x整体轻巧,易于集成和二次修改。

2.还都能否 直接传递模型视图矩阵,未必进行转化。
1.删改还都能否 根据当时人的需求开发出相应的模块,无需困于已有的功能模块。
缺点 1.体积较大

2.一帮人此处获取到的为原生的模型视图矩阵,如何直接把模型视图矩阵传递给cocos2d-x的绘制模块就成为了二个 什么的问題。我尝试了全都土辦法 都这样成功,将会将会这人对cocos2d-x与否怪怪的熟悉,全都放弃。
1.这样cocos2d-x的功能多 1.工作量巨大!

vvsion这人支持或多或少简单的渲染功能,比如模型的导入和渲染,使用的是opengl es 2.0。不过还发生有几个缺乏,mulberryAR对此进行了优化。

修改1:它这人提供的模型渲染过于简单,全都我简单的贴图,此处mulberryAR在原始shader中去掉 了diffuse功能,主全都我将模型的法向传入,做光照出理 。

// vertex shader
attribute vec4 position;
attribute vec2 texCoord0;
attribute vec4 normal;

varying vec2 v_texCoord;
varying vec4 v_normal;

uniform mat4 matProjViewModel;
// ModelView.inverse().transpose()
uniform mat4 matNormal;

void main()
{
    v_texCoord = texCoord0;
    v_normal = matNormal * normal;
    gl_Position = matProjViewModel * position;
}

// fragment shader
precision highp float;

uniform sampler2D texture0;
varying vec2 v_texCoord;
varying vec4 v_normal;

void main()
{
    gl_FragColor =  texture2D( texture0, v_texCoord);
    vec3 lightDir = vec3(0.0, 0.0, 1.0); // 假设光照方向
    // 求解diffuse
    float dotRes = dot(normalize(v_normal.xyz), normalize(lightDir));
    float diffuse = min(max(dotRes, 0.0), 1.0);
    gl_FragColor.rgb = vec3(diffuse * gl_FragColor.rgb);
}

修改2:获取到的相机图像必须进行显示,此处,mulberryAR使用了贴纹理的土辦法 进行渲染。一帮人使用了二个 camera.obj的平面模型作为相机图像的展示平面,只需每次将camera.obj的纹理更新为相机图像即可。此处必须注意一下两点:

  • camera.obj的显示使用的是正投影,因此注意其角度值设置大或多或少,出理 遮挡住了前面的模型。
  • NPOT(No Power of Two)纹理的设置选项,其中Wrap土辦法 要设置为GL_CLAMP_TO_EDGE,Mag/Min Filter土辦法 设置为GL_LINEAR,因此未必产生MinMap。因此纹理会显示为黑色。

修改3:为了提高模型的真实感,增加了fake shadow的效果,全都我在模型底部去掉 一块圆形的阴影。全都我在模型底部去掉 了二个 fakeshadow.obj的模型,因此贴上透明的圆形阴影纹理。优点是简单,节省计算资源,因此还无需须考虑真实的光照方向。

0x03 - mulberryAR性能效果分析


视频效果展示(腾讯视频链接):

mulberryAR Demo:https://v.qq.com/x/page/c03635umclb.html

mulberryAR在苹果机机苹果机机苹果机机苹果机机s上Release版本测试为6FPS。可见其帧率还无法令人满意,主全都我提取ORB底部形态这人步耗时比较多,后期会再此基础上做一定优化。下表中ExtractORB表示每帧ORB底部形态提取的耗时,TrackMonocular为每帧的整个SLAM系统的耗时。

另外,ORB-SLAM2的初始化调慢,丢失后还都能否 快速找回。整体来说,与否目前最好的单目视觉SLAM了。

0x04 - 参考资料


  • ORB-SLAM2
  • ORB_SLAM_iOS
  • ORB-SLAM2注释版
  • VVSION渲染引擎
  • 【AR实验室】OpenGL ES绘制相机(OpenGL ES 1.0版本)
  • https://zhuanlan.zhihu.com/computercoil