当前位置: 代码迷 >> 综合 >> VINS-Mono学习(二)——松耦合初始化
  详细解决方案

VINS-Mono学习(二)——松耦合初始化

热度:60   发布时间:2023-12-12 09:46:00.0

初始化:如何当好一个红娘?

图解SfM

视觉和IMU的羁绊

怎么知道发生了闭环?

位姿图优化与滑窗优化都为哪般?

闭环优化:拉扯橡皮条

整体初始化流程如下:

        1、SFM纯视觉估计滑动窗口内所有帧的位姿和3D路标点的逆深度;

        2、SFM与IMU预积分松耦合,对齐求解初始化参数。

        下面主要按这两个步骤进行讲解。

1、SfM纯视觉运动估计

       

1.1 视觉几何相关基础

        1、已知两帧图像:特征点提取fast,匹配(光流,特征描述子);

        2、已知两帧图像特征匹配点:利用对极集合约束(E矩阵,H矩阵),计算两图像之间的pose(update to scale);

        3、已知相机pose,已知特征点二维坐标:通过三角化得到三维坐标;

        4、已知3d点,3d特征点:通过Perspective-n-Point(PnP)求取新的相机pose。

 

        初始化代码在estimator.cpp文件的processImage()函数中,具体在第三个步骤中完成VIO的初始化,代码如下:

// Step 3: VIO初始化
if( ESTIMATE_EXTRINSIC != 2 && (header.stamp.toSec() - initial_timestamp) > 0.1)
{result = initialStructure();initial_timestamp = header.stamp.toSec();
}

        具体来看initialStructure()函数的大致代码与流程如下:

        为了解释视觉初始化,给定一个场景进行解释:

2.1 初始化代码:视觉部分

        initialStructure()函数中首先进行的是视觉部分的初始化操作:

可以看到主要用了三个函数:

        1. relativePose:计算当前帧跟参考帧的相对位姿

        2. GlobalSFM::construct:SfM计算滑窗内的路标点和相机位姿

        3. cv::solvePnP:计算所有位姿

        4. visualInitialAlign:视觉和IMU对齐,这个函数在讲完IMU预积分之后再讲,具体见《2.2.2节》。

        这里说回initialStructure()函数,initial的过程如下:

        Step1:检测IMU可观性;

                1.1 求加速度累计和 及 平均值;

                1.2 根据上面的平均值求加速度方差

                1.3 根据方差求加速度标准差。

        Step2:纯视觉SFM

                2.1 遍历所有特征点,每个特征点构造一个sfmFeature

                2.2 求解当前帧(滑窗内最后一帧)与滑窗内最近的参考帧的相对位姿。(relativePose(R,T,l)函数) 

                2.3 构造sfm问题,进行sfm求解。(sfm.construct()函数)

        (PS:这个construct()函数比较重要,一是因为滑窗内关键帧的初始化顺序;二是solveFrameByPnP()函数利用特征点在世界坐标系下的表示和在当前帧下的投影,计算出当前帧位姿R_cw;三是注意这里还有三角化处理,用的是当前帧最后一帧或者参考帧)。

                2.4 对所有帧求解PnP,利用关键帧对all_image_frame中的非关键帧进行初始化。(cv::solvePnP()函数。)

         Step3:视觉惯性对齐。(visualInitialAlign()函数)

        下面按上面步骤对这个initialStructure()函数进行展开详细讲解。

2.1.1 遍历所有特征点,构造一个sfmFeature

2.1.2 relativePose() 求解当前帧跟参考帧的位姿

        1. 找参考帧:寻找与当前帧的共视点数较多、且视差量较大的作为参考帧

        2. 有足够的视差,再通过2D-2D对极约束,求基础矩阵,计算出当前帧到参考帧的相对位姿T。

         举个例子说明上述寻找参考帧以及建立共视点关系的情况:

2.1.3 GlobalSFM::construct() 流程

        在讲解construct()函数前,首先看一下GlobalSFM中用到的几个变量:

construct()函数的代码流程如下:

再对上述步骤进行拆解:

补充三角化其他未恢复的点:

最后进行一次全局BA:

Ceres自动求导过程如下:

 

 

2.1.4 计算所有帧位姿 

 

 


2、SFM与IMU预积分松耦合

        视觉惯性对齐函数visualInitialAlign()函数主要调用了VisualIMUAlignment()函数,这两个函数优点像。

        visualInitialAlign()处理的事情比较多一些,除了对齐视觉和IMU之外,还要

2.1 IMU预积分技术基础

2.1.1 IMU传感器模型

        测量值为真实值+噪声+bias偏置。

补充知识:加速度计和陀螺仪的误差可以分为:确定性误差,随机误差。

  • 确定性误差可以事先标定,包括:bias,scale...
  • 随机误差通常假设噪声服从高斯分布,包括:高斯白噪声,bias随机游走... 

2.2.2 IMU预积分

        将一段时间内的IMU数据直接积分起来就能得到i,j之间关于IMU的测量约束,即预积分量:

重新整理下PVQ的积分公式,有:

 

预积分的离散形式

        采用mid-point方法,即两个相邻时刻k到k+1的位姿是用两个时刻的测量值a,w的平均值来计算:

 

 

2.2 视觉SFM和IMU预积分对齐 

2.2.1 视觉和IMU之间的联系 

        视觉SFM和IMU预积分之间存在的几何约束如下:考虑相机坐标系c0为世界坐标系,则利用外参数qbc,tbc构建等式

其中,s为尺度因子,\bar{p}表示非米制单位的轨迹。等式(3)等价于:

 

2.2.2 视觉和IMU对齐流程 

        下面这个几个步骤是视觉sfm和IMU预积分对齐的

1、若没有外参,先估计旋转外参数q_{bc} 

图中的公式(5)关系来源于下图:

继续对式(6)进行如下操作:

        上面的函数在estimator.cpp文件中的Estimator::processImage()函数中调用,在Step2中就会进行外参初始化调用initial_ex_rotation.CalibrationExRotation()函数进行外参估计,得到外参数calib_ric,代码如下:

// 标定imu和相机之间的旋转外参,通过imu和图像计算的旋转使用手眼标定计算获得
bool InitialEXRotation::CalibrationExRotation(vector<pair<Vector3d, Vector3d>> corres, Quaterniond delta_q_imu, Matrix3d &calib_ric_result)
{frame_count ++;// 根据特征关联求解两个连续帧相机的旋转R12Rc.push_back(solveRelativeR(corres));Rimu.push_back(delta_q_imu.toRotationMatrix());// 通过外参把imu的旋转转移到相机坐标系Rc_g.push_back(ric.inverse() * delta_q_imu * ric);  // ric是上一次求解得到的外参Eigen::MatrixXd A(frame_count * 4, 4);A.setZero();int sum_ok = 0;for (int i = 1; i <= frame_count; i++){Quaterniond r1(Rc[i]);Quaterniond r2(Rc_g[i]);// 角度误差r_k+1^k,用于后面的鲁棒核权重求解double angular_distance = 180 / M_PI * r1.angularDistance(r2);ROS_DEBUG("%d %f", i, angular_distance);// 一个简单的核函数,式(8)中w的求解double huber = angular_distance > 5.0 ? 5.0 / angular_distance : 1.0;++ sum_ok;Matrix4d L, R;double w = Quaterniond(Rc[i]).w();Vector3d q = Quaterniond(Rc[i]).vec();L.block<3, 3>(0, 0) = w * Matrix3d::Identity() + Utility::skewSymmetric(q);L.block<3, 1>(0, 3) = q;L.block<1, 3>(3, 0) = -q.transpose();L(3, 3) = w;Quaterniond R_ij(Rimu[i]);w = R_ij.w();q = R_ij.vec();R.block<3, 3>(0, 0) = w * Matrix3d::Identity() - Utility::skewSymmetric(q);R.block<3, 1>(0, 3) = q;R.block<1, 3>(3, 0) = -q.transpose();R(3, 3) = w;// 公式(7)A.block<4, 4>((i - 1) * 4, 0) = huber * (L - R);    // 作用在残差上面}// 对公式(7)采用SVD分解JacobiSVD<MatrixXd> svd(A, ComputeFullU | ComputeFullV);Matrix<double, 4, 1> x = svd.matrixV().col(3);Quaterniond estimated_R(x);     // 用上面的Matrix初始化四元数ric = estimated_R.toRotationMatrix().inverse();// cout << svd.singularValues().transpose() << endl;// cout << ric << endl;Vector3d ric_cov;ric_cov = svd.singularValues().tail<3>();// 倒数第二个奇异值,因为旋转是3个自由度,因此检查一下第三小的奇异值是否足够大,通常需要足够的运动激励才能保证得到没有奇异的解if (frame_count >= WINDOW_SIZE && ric_cov(1) > 0.25){calib_ric_result = ric;return true;}elsereturn false;
}

补充知识:为什么要取第4个向量作为结果?

2、利用旋转约束估计陀螺仪bias 

        剩下的这三个函数实际都在visualInitialAlign()函数中,

        课件里写得比较简洁,很多过程都省略了,看代码的时候就云里雾里看不明白,这里参照https://blog.csdn.net/jiweinanyi/article/details/99882311,给定完整的陀螺仪bias校正过程:

        对于窗口中的连续两帧b_{k}b_{k+1},已经从视觉SFM中得到了旋转q_{bk}^{c0}q_{bk+1}^{c0} ,从预积分中得到了相邻两帧旋转,根据约束方程,建立所有相邻帧最小代价函数:

其中,对陀螺仪偏置求IMU预积分项线性化,有:

在具体实现的时候,上述约束方程为:

有:

代入上一阶展开式,有:

只考虑虚部,有: 

两侧乘以,用LDLT分解求得δbw?。

然后用LDLT分解求得偏置δbw?。代码如下:

void solveGyroscopeBias(map<double, ImageFrame> &all_image_frame, Vector3d* Bgs)
{Matrix3d A;Vector3d b;Vector3d delta_bg;A.setZero();b.setZero();map<double, ImageFrame>::iterator frame_i;map<double, ImageFrame>::iterator frame_j;for (frame_i = all_image_frame.begin(); next(frame_i) != all_image_frame.end(); frame_i++){frame_j = next(frame_i);      // 找到下一帧MatrixXd tmp_A(3, 3);   // H = J^T*Jtmp_A.setZero();VectorXd tmp_b(3);         // rtmp_b.setZero();//R_ij = (R^c0_bk)^-1 * (R^c0_bk+1) 转换为四元數 q_ij = (q^c0_bk)^-1 * (q^c0_bk+1)Eigen::Quaterniond q_ij(frame_i->second.R.transpose() * frame_j->second.R);//tmp_A = J_j_bwtmp_A = frame_j->second.pre_integration->jacobian.template block<3, 3>(O_R, O_BG);//tmp_b = 2 * ((r^bk_bk+1)^-1 * (q^c0_bk)^-1 * (q^c0_bk+1))_vec//      = 2 * ((r^bk_bk+1)^-1 * q_ij)_vectmp_b = 2 * (frame_j->second.pre_integration->delta_q.inverse() * q_ij).vec();//tmp_A * delta_bg = tmp_bA += tmp_A.transpose() * tmp_A;b += tmp_A.transpose() * tmp_b;}delta_bg = A.ldlt().solve(b);   // 求出陀螺仪bias的差值ROS_WARN_STREAM("gyroscope bias initial calibration " << delta_bg.transpose());// 滑窗中的零偏设置为求解出来的零偏for (int i = 0; i <= WINDOW_SIZE; i ++)Bgs[i] += delta_bg;// 对all_image_frame中预积分量根据当前零偏重新积分for (frame_i = all_image_frame.begin(); next(frame_i) != all_image_frame.end( ); frame_i++){frame_j = next(frame_i);frame_j->second.pre_integration->repropagate(Vector3d::Zero(), Bgs[0]);}
}

3、利用平移约束估计重力,速度,以及尺度因子s 

 

 

 

根据待优化变量,整理上述方程,转换成Hx=b的形式,有:

转换成矩阵形式:

同理有:

最后得到: 

 也就是:

接下来看LinearAlignment()函数:

bool LinearAlignment(map<double, ImageFrame> &all_image_frame, Vector3d &g, VectorXd& x)
{// 这一部分内容对照论文进行理解// 这里是《VIO 第7讲》 —— 视觉与IMU对齐估计流程第3步:利用平移约束估计重力、速度以及尺度初始值int all_frame_count = all_image_frame.size();int n_state = all_frame_count * 3 + 3 + 1;      // 速度 + 重力 + 尺度因子MatrixXd A{n_state, n_state};A.setZero();VectorXd b{n_state};b.setZero();map<double, ImageFrame>::iterator frame_i;map<double, ImageFrame>::iterator frame_j;int i = 0;for (frame_i = all_image_frame.begin(); next(frame_i) != all_image_frame.end(); frame_i ++, i ++){frame_j = next(frame_i);MatrixXd tmp_A(6, 10);tmp_A.setZero();VectorXd tmp_b(6);tmp_b.setZero();double dt = frame_j->second.pre_integration->sum_dt;// 《VIO第7讲》,公式(17)tmp_A.block<3, 3>(0, 0) = -dt * Matrix3d::Identity();tmp_A.block<3, 3>(0, 6) = frame_i->second.R.transpose() * dt * dt / 2 * Matrix3d::Identity();tmp_A.block<3, 1>(0, 9) = frame_i->second.R.transpose() * (frame_j->second.T - frame_i->second.T) / 100.0;     tmp_b.block<3, 1>(0, 0) = frame_j->second.pre_integration->delta_p + frame_i->second.R.transpose() * frame_j->second.R * TIC[0] - TIC[0];// cout << "delta_p   " << frame_j->second.pre_integration->delta_p.transpose() << endl;tmp_A.block<3, 3>(3, 0) = -Matrix3d::Identity();tmp_A.block<3, 3>(3, 3) = frame_i->second.R.transpose() * frame_j->second.R;tmp_A.block<3, 3>(3, 6) = frame_i->second.R.transpose() * dt * Matrix3d::Identity();tmp_b.block<3, 1>(3, 0) = frame_j->second.pre_integration->delta_v;// cout << "delta_v   " << frame_j->second.pre_integration->delta_v.transpose() << endl;Matrix<double, 6, 6> cov_inv = Matrix<double, 6, 6>::Zero();// cov.block<6, 6>(0, 0) = IMU_cov[i + 1];// MatrixXd cov_inv = cov.inverse();cov_inv.setIdentity();MatrixXd r_A = tmp_A.transpose() * cov_inv * tmp_A;VectorXd r_b = tmp_A.transpose() * cov_inv * tmp_b;A.block<6, 6>(i * 3, i * 3) += r_A.topLeftCorner<6, 6>();b.segment<6>(i * 3) += r_b.head<6>();A.bottomRightCorner<4, 4>() += r_A.bottomRightCorner<4, 4>();b.tail<4>() += r_b.tail<4>();A.block<6, 4>(i * 3, n_state - 4) += r_A.topRightCorner<6, 4>();A.block<4, 6>(n_state - 4, i * 3) += r_A.bottomLeftCorner<4, 6>();}// 增强数值稳定性A = A * 1000.0;b = b * 1000.0;x = A.ldlt().solve(b);      // 注意这里的求解方式是ldlt分解double s = x(n_state - 1) / 100.0;  // 取出尺度ROS_DEBUG("estimated scale: %f", s);g = x.segment<3>(n_state - 4);      // 取出重力,从倒数第4个位置,取一个vector3d向量,正好把重力取出来ROS_DEBUG_STREAM(" result g     " << g.norm() << " " << g.transpose());// 做一些检查if(fabs(g.norm() - G.norm()) > 1.0 || s < 0){return false;}// 重力修复:《VIO第7讲》 —— 视觉与IMU对齐流程中第4步:对重力向量g_c0进行优化RefineGravity(all_image_frame, g, x);// 得到真实尺度s = (x.tail<1>())(0) / 100.0;(x.tail<1>())(0) = s;ROS_DEBUG_STREAM(" refine     " << g.norm() << " " << g.transpose());if(s < 0.0 )return false;   elsereturn true;
}

4、优化重力向量g^{c0}???????

       两个问题:1、为什么需要优化重力向量?2、如何优化重力向量?

        考虑到上一步求得的g存在误差,一般认为重力矢量的模长是已知的,因此重力只剩下两个自由度,在切线空间上用两个变量重新参数化重力。

 

代码在initial_alignment.cpp文件中的RefineGravity()函数中,代码如下:

void RefineGravity(map<double, ImageFrame>& all_image_frame, Vector3d& g, VectorXd& x)
{// 参考论文Vector3d g0 = g.normalized() * G.norm();Vector3d lx, ly;//VectorXd x;int all_frame_count = all_image_frame.size();int n_state = all_frame_count * 3 + 2 + 1;MatrixXd A{n_state, n_state};A.setZero();VectorXd b{n_state};b.setZero();map<double, ImageFrame>::iterator frame_i;map<double, ImageFrame>::iterator frame_j;for(int k = 0; k < 4; k ++){MatrixXd lxly(3, 2);lxly = TangentBasis(g0);    // // 重力向量优化,将重力向量参数化,这里是b1 b2纵着排列,形成的3×2矩阵int i = 0;for (frame_i = all_image_frame.begin(); next(frame_i) != all_image_frame.end(); frame_i++, i++){frame_j = next(frame_i);MatrixXd tmp_A(6, 9);tmp_A.setZero();VectorXd tmp_b(6);tmp_b.setZero();double dt = frame_j->second.pre_integration->sum_dt;// 还是公式(17),只不过优化变量由 g^c0 变为 w^c0  (公式21的转换)tmp_A.block<3, 3>(0, 0) = -dt * Matrix3d::Identity();tmp_A.block<3, 2>(0, 6) = frame_i->second.R.transpose() * dt * dt / 2 * Matrix3d::Identity() * lxly;    // 最后一项是[b1 b2],注意优化的是w(需要求的是w向量,也就是b1和b2的参数 )tmp_A.block<3, 1>(0, 8) = frame_i->second.R.transpose() * (frame_j->second.T - frame_i->second.T) / 100.0;     tmp_b.block<3, 1>(0, 0) = frame_j->second.pre_integration->delta_p + frame_i->second.R.transpose() * frame_j->second.R * TIC[0] - TIC[0] - frame_i->second.R.transpose() * dt * dt / 2 * g0;    // 公式(22)上半部分tmp_A.block<3, 3>(3, 0) = -Matrix3d::Identity();tmp_A.block<3, 3>(3, 3) = frame_i->second.R.transpose() * frame_j->second.R;tmp_A.block<3, 2>(3, 6) = frame_i->second.R.transpose() * dt * Matrix3d::Identity() * lxly;tmp_b.block<3, 1>(3, 0) = frame_j->second.pre_integration->delta_v - frame_i->second.R.transpose() * dt * Matrix3d::Identity() * g0;    // 公式(22)下半部分Matrix<double, 6, 6> cov_inv = Matrix<double, 6, 6>::Zero();//cov.block<6, 6>(0, 0) = IMU_cov[i + 1];//MatrixXd cov_inv = cov.inverse();cov_inv.setIdentity();MatrixXd r_A = tmp_A.transpose() * cov_inv * tmp_A;VectorXd r_b = tmp_A.transpose() * cov_inv * tmp_b;A.block<6, 6>(i * 3, i * 3) += r_A.topLeftCorner<6, 6>();b.segment<6>(i * 3) += r_b.head<6>();A.bottomRightCorner<3, 3>() += r_A.bottomRightCorner<3, 3>();b.tail<3>() += r_b.tail<3>();A.block<6, 3>(i * 3, n_state - 3) += r_A.topRightCorner<6, 3>();A.block<3, 6>(n_state - 3, i * 3) += r_A.bottomLeftCorner<3, 6>();}A = A * 1000.0;b = b * 1000.0;x = A.ldlt().solve(b);VectorXd dg = x.segment<2>(n_state - 3);        // 估计的w向量,也就是[b1 b2]的系数g0 = (g0 + lxly * dg).normalized() * G.norm();//double s = x(n_state - 1);}   g = g0;
}

5、求解世界坐标系w和初始相机坐标系c0之间的旋转矩阵q_wc0,并将轨迹对齐到世界坐标系下

 

 

这里还是沿用https://blog.csdn.net/jiweinanyi/article/details/99882311中的初始化思路:

1、上面的步骤已经根据旋转约束求出了陀螺仪bias bg,根据平移约束求出了gc0,s,和IMU坐标系下的速度Vs。

bool result = VisualIMUAlignment(all_image_frame, Bgs, g, x);if(!result){ROS_DEBUG("solve g failed!");return false;}

2、获取所有图像帧中frame_count数量的的位姿Ps、Rs,并将其置为关键帧。

    for (int i = 0; i <= frame_count; i++){Matrix3d Ri = all_image_frame[Headers[i].stamp.toSec()].R;Vector3d Pi = all_image_frame[Headers[i].stamp.toSec()].T;Ps[i] = Pi;Rs[i] = Ri;all_image_frame[Headers[i].stamp.toSec()].is_key_frame = true;}

3、根据三角化重新计算所有特征点的带尺度模糊的深度。

    //将所有特征点的深度置为-1VectorXd dep = f_manager.getDepthVector();for (int i = 0; i < dep.size(); i++)dep[i] = -1;f_manager.clearDepth(dep);//重新计算特征点的深度Vector3d TIC_TMP[NUM_OF_CAM];for(int i = 0; i < NUM_OF_CAM; i++)TIC_TMP[i].setZero();ric[0] = RIC[0];f_manager.setRic(ric);f_manager.triangulate(Ps, &(TIC_TMP[0]), &(RIC[0]));

4、优化后陀螺仪的偏置bg改变,重新进行预积分。

    for (int i = 0; i <= WINDOW_SIZE; i++){pre_integrations[i]->repropagate(Vector3d::Zero(), Bgs[i]);}

5、将Ps、Vs、depth尺度s缩放后转变为相对于第0帧图像坐标系下。论文提到的以第一帧c0为基准坐标系,通过相机坐标系ck位姿得到IMU坐标系bk位姿的公式为:

        之前视觉SFM的结果都是以第l帧为关键枢纽帧(以第l帧为基准坐标系),转换到第一帧b0为基准坐标系的话应该是: 

for (int i = frame_count; i >= 0; i--)Ps[i] = s * Ps[i] - Rs[i] * TIC[0] - (s * Ps[0] - Rs[0] * TIC[0]);  

6、通过优化后的向量得到帧速度Vs和尺度s,去除深度值的尺度模糊。

    int kv = -1;map<double, ImageFrame>::iterator frame_i;for (frame_i = all_image_frame.begin(); frame_i != all_image_frame.end(); frame_i++){if(frame_i->second.is_key_frame){kv++;Vs[kv] = frame_i->second.R * x.segment<3>(kv * 3);}}for (auto &it_per_id : f_manager.feature){it_per_id.used_num = it_per_id.feature_per_frame.size();if (!(it_per_id.used_num >= 2 && it_per_id.start_frame < WINDOW_SIZE - 2))continue;it_per_id.estimated_depth *= s;}

7、通过将重力旋转到z轴上,得到世界坐标系w与相机坐标系c0之间的旋转矩阵rot_diff。 

    Matrix3d R0 = Utility::g2R(g);    // 先得到udouble yaw = Utility::R2ypr(R0 * Rs[0]).x();    // 再得到ΘR0 = Utility::ypr2R(Eigen::Vector3d{-yaw, 0, 0}) * R0;   // R_wcg = R0 * g;    // 将后面的gc0转换到世界坐标系下Matrix3d rot_diff = R0;

8、所有变量从参考坐标系c0转换到世界坐标系w

    // Matrix3d rot_diff = R0 * Rs[0].transpose();Matrix3d rot_diff = R0;for (int i = 0; i <= frame_count; i ++){Ps[i] = rot_diff * Ps[i];Rs[i] = rot_diff * Rs[i];   // 全部对齐到重力下,同时yaw角对齐到第一帧    R_w_ci = R_w_c0 * R_c0_ciVs[i] = rot_diff * Vs[i];}

  相关解决方案