(附代码)图像拼接和图像融合技术

编者荐语
图像拼接在实际的应用场景很广,比如无人机航拍,遥感图像等等,图像拼接是进一步做图像理解的基础步骤,拼接效果的好坏直接影响进一步的工作,所以一个好的图像拼接算法非常重要。

转载自 | 新机器视觉

链接 | https://www.cnblogs.com/skyfsm/p/7411961.html

举一个身边的例子吧,你用你的手机对某一场景拍照,但是你没有办法一次将所有你要拍的景物全部拍下来,所以你对该场景从左往右依次拍了好几张图,来把你要拍的所有景物记录下来。那么我们能不能把这些图像拼接成一个大图呢?我们利用opencv就可以做到图像拼接的效果!

比如我们有对这两张图进行拼接。

从上面两张图可以看出,这两张图有比较多的重叠部分,这也是拼接的基本要求。

那么要实现图像拼接需要那几步呢?简单来说有以下几步:

  1. 对每幅图进行特征点提取

  2. 对对特征点进行匹配

  3. 进行图像配准

  4. 把图像拷贝到另一幅图像的特定位置

  5. 对重叠边界进行特殊处理

好吧,那就开始正式实现图像配准。

第一步就是特征点提取。现在CV领域有很多特征点的定义,比如sift、surf、harris角点、ORB都是很有名的特征因子,都可以用来做图像拼接的工作,他们各有优势。本文将使用ORB和SURF进行图像拼接,用其他方法进行拼接也是类似的。

基于SURF的图像拼接

用SIFT算法来实现图像拼接是很常用的方法,但是因为SIFT计算量很大,所以在速度要求很高的场合下不再适用。所以,它的改进方法SURF因为在速度方面有了明显的提高(速度是SIFT的3倍),所以在图像拼接领域还是大有作为。虽说SURF精确度和稳定性不及SIFT,但是其综合能力还是优越一些。下面将详细介绍拼接的主要步骤。

1.特征点提取和匹配

特征点提取和匹配的方法我在上一篇文章《OpenCV探索之路(二十三):特征检测和特征匹配方法汇总》中做了详细的介绍,在这里直接使用上文所总结的SURF特征提取和特征匹配的方法。

  1. //提取特征点

  2. SurfFeatureDetector Detector(2000);

  3. vector<KeyPoint> keyPoint1, keyPoint2;

  4. Detector.detect(image1, keyPoint1);

  5. Detector.detect(image2, keyPoint2);

  6. //特征点描述,为下边的特征点匹配做准备

  7. SurfDescriptorExtractor Descriptor;

  8. Mat imageDesc1, imageDesc2;

  9. Descriptor.compute(image1, keyPoint1, imageDesc1);

  10. Descriptor.compute(image2, keyPoint2, imageDesc2);

  11. FlannBasedMatcher matcher;

  12. vector<vector<DMatch> > matchePoints;

  13. vector<DMatch> GoodMatchePoints;

  14. vector<Mat> train_desc(1, imageDesc1);

  15. matcher.add(train_desc);

  16. matcher.train();

  17. matcher.knnMatch(imageDesc2, matchePoints, 2);

  18. cout << 'total match points: ' << matchePoints.size() << endl;

  19. // Lowe's algorithm,获取优秀匹配点

  20. for (int i = 0; i < matchePoints.size(); i++)

  21. {

  22. if (matchePoints[i][0].distance < 0.4 * matchePoints[i][1].distance)

  23. {

  24. GoodMatchePoints.push_back(matchePoints[i][0]);

  25. }

  26. }

  27. Mat first_match;

  28. drawMatches(image02, keyPoint2, image01, keyPoint1, GoodMatchePoints, first_match);

  29. imshow('first_match ', first_match);

2.图像配准

这样子我们就可以得到了两幅待拼接图的匹配点集,接下来我们进行图像的配准,即将两张图像转换为同一坐标下,这里我们需要使用findHomography函数来求得变换矩阵。但是需要注意的是,findHomography函数所要用到的点集是Point2f类型的,所有我们需要对我们刚得到的点集GoodMatchePoints再做一次处理,使其转换为Point2f类型的点集。

vector<Point2f> imagePoints1, imagePoints2;for (int i = 0; i<GoodMatchePoints.size(); i++){imagePoints2.push_back(keyPoint2[GoodMatchePoints[i].queryIdx].pt);imagePoints1.push_back(keyPoint1[GoodMatchePoints[i].trainIdx].pt);}

这样子,我们就可以拿着imagePoints1, imagePoints2去求变换矩阵了,并且实现图像配准。值得注意的是findHomography函数的参数中我们选泽了CV_RANSAC,这表明我们选择RANSAC算法继续筛选可靠地匹配点,这使得匹配点解更为精确。

  1. //获取图像1到图像2的投影映射矩阵 尺寸为3*3

  2. Mat homo = findHomography(imagePoints1, imagePoints2, CV_RANSAC);

  3. 也可以使用getPerspectiveTransform方法获得透视变换矩阵,不过要求只能有4个点,效果稍差

  4. //Mat homo=getPerspectiveTransform(imagePoints1,imagePoints2);

  5. cout << '变换矩阵为:\n' << homo << endl << endl; //输出映射矩阵

  6. //图像配准

  7. Mat imageTransform1, imageTransform2;

  8. warpPerspective(image01, imageTransform1, homo, Size(MAX(corners.right_top.x, corners.right_bottom.x), image02.rows));

  9. //warpPerspective(image01, imageTransform2, adjustMat*homo, Size(image02.cols*1.3, image02.rows*1.8));

  10. imshow('直接经过透视矩阵变换', imageTransform1);

  11. imwrite('trans1.jpg', imageTransform1);

3. 图像拷贝

拷贝的思路很简单,就是将左图直接拷贝到配准图上就可以了。

//创建拼接后的图,需提前计算图的大小int dst_width = imageTransform1.cols;  //取最右点的长度为拼接图的长度int dst_height = image02.rows;Mat dst(dst_height, dst_width, CV_8UC3);dst.setTo(0);imageTransform1.copyTo(dst(Rect(0, 0, imageTransform1.cols, imageTransform1.rows)));image02.copyTo(dst(Rect(0, 0, image02.cols, image02.rows)));imshow('b_dst', dst);

4.图像融合(去裂缝处理)

从上图可以看出,两图的拼接并不自然,原因就在于拼接图的交界处,两图因为光照色泽的原因使得两图交界处的过渡很糟糕,所以需要特定的处理解决这种不自然。这里的处理思路是加权融合,在重叠部分由前一幅图像慢慢过渡到第二幅图像,即将图像的重叠区域的像素值按一定的权值相加合成新的图像。

  1. //优化两图的连接处,使得拼接自然

  2. void OptimizeSeam(Mat& img1, Mat& trans, Mat& dst)

  3. {

  4. int start = MIN(corners.left_top.x, corners.left_bottom.x);//开始位置,即重叠区域的左边界

  5. double processWidth = img1.cols - start;//重叠区域的宽度

  6. int rows = dst.rows;

  7. int cols = img1.cols; //注意,是列数*通道数

  8. double alpha = 1;//img1中像素的权重

  9. for (int i = 0; i < rows; i++)

  10. {

  11. uchar* p = img1.ptr<uchar>(i); //获取第i行的首地址

  12. uchar* t = trans.ptr<uchar>(i);

  13. uchar* d = dst.ptr<uchar>(i);

  14. for (int j = start; j < cols; j++)

  15. {

  16. //如果遇到图像trans中无像素的黑点,则完全拷贝img1中的数据

  17. if (t[j * 3] == 0 && t[j * 3 + 1] == 0 && t[j * 3 + 2] == 0)

  18. {

  19. alpha = 1;

  20. }

  21. else

  22. {

  23. //img1中像素的权重,与当前处理点距重叠区域左边界的距离成正比,实验证明,这种方法确实好

  24. alpha = (processWidth - (j - start)) / processWidth;

  25. }

  26. d[j * 3] = p[j * 3] * alpha + t[j * 3] * (1 - alpha);

  27. d[j * 3 + 1] = p[j * 3 + 1] * alpha + t[j * 3 + 1] * (1 - alpha);

  28. d[j * 3 + 2] = p[j * 3 + 2] * alpha + t[j * 3 + 2] * (1 - alpha);

  29. }

  30. }

  31. }

多尝试几张,验证拼接效果

测试一

测试二

测试三

最后给出完整的SURF算法实现的拼接代码。

#include 'highgui/highgui.hpp'#include 'opencv2/nonfree/nonfree.hpp'#include 'opencv2/legacy/legacy.hpp'#include <iostream>using namespace cv;using namespace std;void OptimizeSeam(Mat& img1, Mat& trans, Mat& dst);typedef struct{Point2f left_top;Point2f left_bottom;Point2f right_top;Point2f right_bottom;}four_corners_t;four_corners_t corners;void CalcCorners(const Mat& H, const Mat& src){double v2[] = { 0, 0, 1 };//左上角double v1[3];//变换后的坐标值Mat V2 = Mat(3, 1, CV_64FC1, v2);  //列向量Mat V1 = Mat(3, 1, CV_64FC1, v1);  //列向量V1 = H * V2;//左上角(0,0,1)cout << 'V2: ' << V2 << endl;cout << 'V1: ' << V1 << endl;corners.left_top.x = v1[0] / v1[2];corners.left_top.y = v1[1] / v1[2];//左下角(0,src.rows,1)v2[0] = 0;v2[1] = src.rows;v2[2] = 1;V2 = Mat(3, 1, CV_64FC1, v2);  //列向量V1 = Mat(3, 1, CV_64FC1, v1);  //列向量V1 = H * V2;corners.left_bottom.x = v1[0] / v1[2];corners.left_bottom.y = v1[1] / v1[2];//右上角(src.cols,0,1)v2[0] = src.cols;v2[1] = 0;v2[2] = 1;V2 = Mat(3, 1, CV_64FC1, v2);  //列向量V1 = Mat(3, 1, CV_64FC1, v1);  //列向量V1 = H * V2;corners.right_top.x = v1[0] / v1[2];corners.right_top.y = v1[1] / v1[2];//右下角(src.cols,src.rows,1)v2[0] = src.cols;v2[1] = src.rows;v2[2] = 1;V2 = Mat(3, 1, CV_64FC1, v2);  //列向量V1 = Mat(3, 1, CV_64FC1, v1);  //列向量V1 = H * V2;corners.right_bottom.x = v1[0] / v1[2];corners.right_bottom.y = v1[1] / v1[2];}int main(int argc, char *argv[]){Mat image01 = imread('g5.jpg', 1);    //右图Mat image02 = imread('g4.jpg', 1);    //左图imshow('p2', image01);imshow('p1', image02);//灰度图转换Mat image1, image2;cvtColor(image01, image1, CV_RGB2GRAY);cvtColor(image02, image2, CV_RGB2GRAY);//提取特征点SurfFeatureDetector Detector(2000);vector<KeyPoint> keyPoint1, keyPoint2;Detector.detect(image1, keyPoint1);Detector.detect(image2, keyPoint2);//特征点描述,为下边的特征点匹配做准备SurfDescriptorExtractor Descriptor;Mat imageDesc1, imageDesc2;Descriptor.compute(image1, keyPoint1, imageDesc1);Descriptor.compute(image2, keyPoint2, imageDesc2);FlannBasedMatcher matcher;vector<vector<DMatch> > matchePoints;vector<DMatch> GoodMatchePoints;vector<Mat> train_desc(1, imageDesc1);matcher.add(train_desc);matcher.train();matcher.knnMatch(imageDesc2, matchePoints, 2);cout << 'total match points: ' << matchePoints.size() << endl;// Lowe's algorithm,获取优秀匹配点for (int i = 0; i < matchePoints.size(); i++){if (matchePoints[i][0].distance < 0.4 * matchePoints[i][1].distance){GoodMatchePoints.push_back(matchePoints[i][0]);}}Mat first_match;drawMatches(image02, keyPoint2, image01, keyPoint1, GoodMatchePoints, first_match);imshow('first_match ', first_match);vector<Point2f> imagePoints1, imagePoints2;for (int i = 0; i<GoodMatchePoints.size(); i++){imagePoints2.push_back(keyPoint2[GoodMatchePoints[i].queryIdx].pt);imagePoints1.push_back(keyPoint1[GoodMatchePoints[i].trainIdx].pt);}//获取图像1到图像2的投影映射矩阵 尺寸为3*3Mat homo = findHomography(imagePoints1, imagePoints2, CV_RANSAC);也可以使用getPerspectiveTransform方法获得透视变换矩阵,不过要求只能有4个点,效果稍差//Mat   homo=getPerspectiveTransform(imagePoints1,imagePoints2);cout << '变换矩阵为:\n' << homo << endl << endl; //输出映射矩阵//计算配准图的四个顶点坐标CalcCorners(homo, image01);cout << 'left_top:' << corners.left_top << endl;cout << 'left_bottom:' << corners.left_bottom << endl;cout << 'right_top:' << corners.right_top << endl;cout << 'right_bottom:' << corners.right_bottom << endl;//图像配准Mat imageTransform1, imageTransform2;warpPerspective(image01, imageTransform1, homo, Size(MAX(corners.right_top.x, corners.right_bottom.x), image02.rows));//warpPerspective(image01, imageTransform2, adjustMat*homo, Size(image02.cols*1.3, image02.rows*1.8));imshow('直接经过透视矩阵变换', imageTransform1);imwrite('trans1.jpg', imageTransform1);//创建拼接后的图,需提前计算图的大小int dst_width = imageTransform1.cols;  //取最右点的长度为拼接图的长度int dst_height = image02.rows;Mat dst(dst_height, dst_width, CV_8UC3);dst.setTo(0);imageTransform1.copyTo(dst(Rect(0, 0, imageTransform1.cols, imageTransform1.rows)));image02.copyTo(dst(Rect(0, 0, image02.cols, image02.rows)));imshow('b_dst', dst);OptimizeSeam(image02, imageTransform1, dst);imshow('dst', dst);imwrite('dst.jpg', dst);waitKey();return 0;}//优化两图的连接处,使得拼接自然void OptimizeSeam(Mat& img1, Mat& trans, Mat& dst){int start = MIN(corners.left_top.x, corners.left_bottom.x);//开始位置,即重叠区域的左边界double processWidth = img1.cols - start;//重叠区域的宽度int rows = dst.rows;int cols = img1.cols; //注意,是列数*通道数double alpha = 1;//img1中像素的权重for (int i = 0; i < rows; i++){uchar* p = img1.ptr<uchar>(i);  //获取第i行的首地址uchar* t = trans.ptr<uchar>(i);uchar* d = dst.ptr<uchar>(i);for (int j = start; j < cols; j++){//如果遇到图像trans中无像素的黑点,则完全拷贝img1中的数据if (t[j * 3] == 0 && t[j * 3 + 1] == 0 && t[j * 3 + 2] == 0){alpha = 1;}else{//img1中像素的权重,与当前处理点距重叠区域左边界的距离成正比,实验证明,这种方法确实好alpha = (processWidth - (j - start)) / processWidth;}d[j * 3] = p[j * 3] * alpha + t[j * 3] * (1 - alpha);d[j * 3 + 1] = p[j * 3 + 1] * alpha + t[j * 3 + 1] * (1 - alpha);d[j * 3 + 2] = p[j * 3 + 2] * alpha + t[j * 3 + 2] * (1 - alpha);}}}

基于ORB的图像拼接

利用ORB进行图像拼接的思路跟上面的思路基本一样,只是特征提取和特征点匹配的方式略有差异罢了。这里就不再详细介绍思路了,直接贴代码看效果。

  1. #include 'highgui/highgui.hpp'

  2. #include 'opencv2/nonfree/nonfree.hpp'

  3. #include 'opencv2/legacy/legacy.hpp'

  4. #include <iostream>

  5. using namespace cv;

  6. using namespace std;

  7. void OptimizeSeam(Mat& img1, Mat& trans, Mat& dst);

  8. typedef struct

  9. {

  10. Point2f left_top;

  11. Point2f left_bottom;

  12. Point2f right_top;

  13. Point2f right_bottom;

  14. }four_corners_t;

  15. four_corners_t corners;

  16. void CalcCorners(const Mat& H, const Mat& src)

  17. {

  18. double v2[] = { 0, 0, 1 };//左上角

  19. double v1[3];//变换后的坐标值

  20. Mat V2 = Mat(3, 1, CV_64FC1, v2); //列向量

  21. Mat V1 = Mat(3, 1, CV_64FC1, v1); //列向量

  22. V1 = H * V2;

  23. //左上角(0,0,1)

  24. cout << 'V2: ' << V2 << endl;

  25. cout << 'V1: ' << V1 << endl;

  26. corners.left_top.x = v1[0] / v1[2];

  27. corners.left_top.y = v1[1] / v1[2];

  28. //左下角(0,src.rows,1)

  29. v2[0] = 0;

  30. v2[1] = src.rows;

  31. v2[2] = 1;

  32. V2 = Mat(3, 1, CV_64FC1, v2); //列向量

  33. V1 = Mat(3, 1, CV_64FC1, v1); //列向量

  34. V1 = H * V2;

  35. corners.left_bottom.x = v1[0] / v1[2];

  36. corners.left_bottom.y = v1[1] / v1[2];

  37. //右上角(src.cols,0,1)

  38. v2[0] = src.cols;

  39. v2[1] = 0;

  40. v2[2] = 1;

  41. V2 = Mat(3, 1, CV_64FC1, v2); //列向量

  42. V1 = Mat(3, 1, CV_64FC1, v1); //列向量

  43. V1 = H * V2;

  44. corners.right_top.x = v1[0] / v1[2];

  45. corners.right_top.y = v1[1] / v1[2];

  46. //右下角(src.cols,src.rows,1)

  47. v2[0] = src.cols;

  48. v2[1] = src.rows;

  49. v2[2] = 1;

  50. V2 = Mat(3, 1, CV_64FC1, v2); //列向量

  51. V1 = Mat(3, 1, CV_64FC1, v1); //列向量

  52. V1 = H * V2;

  53. corners.right_bottom.x = v1[0] / v1[2];

  54. corners.right_bottom.y = v1[1] / v1[2];

  55. }

  56. int main(int argc, char *argv[])

  57. {

  58. Mat image01 = imread('t1.jpg', 1); //右图

  59. Mat image02 = imread('t2.jpg', 1); //左图

  60. imshow('p2', image01);

  61. imshow('p1', image02);

  62. //灰度图转换

  63. Mat image1, image2;

  64. cvtColor(image01, image1, CV_RGB2GRAY);

  65. cvtColor(image02, image2, CV_RGB2GRAY);

  66. //提取特征点

  67. OrbFeatureDetector surfDetector(3000);

  68. vector<KeyPoint> keyPoint1, keyPoint2;

  69. surfDetector.detect(image1, keyPoint1);

  70. surfDetector.detect(image2, keyPoint2);

  71. //特征点描述,为下边的特征点匹配做准备

  72. OrbDescriptorExtractor SurfDescriptor;

  73. Mat imageDesc1, imageDesc2;

  74. SurfDescriptor.compute(image1, keyPoint1, imageDesc1);

  75. SurfDescriptor.compute(image2, keyPoint2, imageDesc2);

  76. flann::Index flannIndex(imageDesc1, flann::LshIndexParams(12, 20, 2), cvflann::FLANN_DIST_HAMMING);

  77. vector<DMatch> GoodMatchePoints;

  78. Mat macthIndex(imageDesc2.rows, 2, CV_32SC1), matchDistance(imageDesc2.rows, 2, CV_32FC1);

  79. flannIndex.knnSearch(imageDesc2, macthIndex, matchDistance, 2, flann::SearchParams());

  80. // Lowe's algorithm,获取优秀匹配点

  81. for (int i = 0; i < matchDistance.rows; i++)

  82. {

  83. if (matchDistance.at<float>(i, 0) < 0.4 * matchDistance.at<float>(i, 1))

  84. {

  85. DMatch dmatches(i, macthIndex.at<int>(i, 0), matchDistance.at<float>(i, 0));

  86. GoodMatchePoints.push_back(dmatches);

  87. }

  88. }

  89. Mat first_match;

  90. drawMatches(image02, keyPoint2, image01, keyPoint1, GoodMatchePoints, first_match);

  91. imshow('first_match ', first_match);

  92. vector<Point2f> imagePoints1, imagePoints2;

  93. for (int i = 0; i<GoodMatchePoints.size(); i++)

  94. {

  95. imagePoints2.push_back(keyPoint2[GoodMatchePoints[i].queryIdx].pt);

  96. imagePoints1.push_back(keyPoint1[GoodMatchePoints[i].trainIdx].pt);

  97. }

  98. //获取图像1到图像2的投影映射矩阵 尺寸为3*3

  99. Mat homo = findHomography(imagePoints1, imagePoints2, CV_RANSAC);

  100. 也可以使用getPerspectiveTransform方法获得透视变换矩阵,不过要求只能有4个点,效果稍差

  101. //Mat homo=getPerspectiveTransform(imagePoints1,imagePoints2);

  102. cout << '变换矩阵为:\n' << homo << endl << endl; //输出映射矩阵

  103. //计算配准图的四个顶点坐标

  104. CalcCorners(homo, image01);

  105. cout << 'left_top:' << corners.left_top << endl;

  106. cout << 'left_bottom:' << corners.left_bottom << endl;

  107. cout << 'right_top:' << corners.right_top << endl;

  108. cout << 'right_bottom:' << corners.right_bottom << endl;

  109. //图像配准

  110. Mat imageTransform1, imageTransform2;

  111. warpPerspective(image01, imageTransform1, homo, Size(MAX(corners.right_top.x, corners.right_bottom.x), image02.rows));

  112. //warpPerspective(image01, imageTransform2, adjustMat*homo, Size(image02.cols*1.3, image02.rows*1.8));

  113. imshow('直接经过透视矩阵变换', imageTransform1);

  114. imwrite('trans1.jpg', imageTransform1);

  115. //创建拼接后的图,需提前计算图的大小

  116. int dst_width = imageTransform1.cols; //取最右点的长度为拼接图的长度

  117. int dst_height = image02.rows;

  118. Mat dst(dst_height, dst_width, CV_8UC3);

  119. dst.setTo(0);

  120. imageTransform1.copyTo(dst(Rect(0, 0, imageTransform1.cols, imageTransform1.rows)));

  121. image02.copyTo(dst(Rect(0, 0, image02.cols, image02.rows)));

  122. imshow('b_dst', dst);

  123. OptimizeSeam(image02, imageTransform1, dst);

  124. imshow('dst', dst);

  125. imwrite('dst.jpg', dst);

  126. waitKey();

  127. return 0;

  128. }

  129. //优化两图的连接处,使得拼接自然

  130. void OptimizeSeam(Mat& img1, Mat& trans, Mat& dst)

  131. {

  132. int start = MIN(corners.left_top.x, corners.left_bottom.x);//开始位置,即重叠区域的左边界

  133. double processWidth = img1.cols - start;//重叠区域的宽度

  134. int rows = dst.rows;

  135. int cols = img1.cols; //注意,是列数*通道数

  136. double alpha = 1;//img1中像素的权重

  137. for (int i = 0; i < rows; i++)

  138. {

  139. uchar* p = img1.ptr<uchar>(i); //获取第i行的首地址

  140. uchar* t = trans.ptr<uchar>(i);

  141. uchar* d = dst.ptr<uchar>(i);

  142. for (int j = start; j < cols; j++)

  143. {

  144. //如果遇到图像trans中无像素的黑点,则完全拷贝img1中的数据

  145. if (t[j * 3] == 0 && t[j * 3 + 1] == 0 && t[j * 3 + 2] == 0)

  146. {

  147. alpha = 1;

  148. }

  149. else

  150. {

  151. //img1中像素的权重,与当前处理点距重叠区域左边界的距离成正比,实验证明,这种方法确实好

  152. alpha = (processWidth - (j - start)) / processWidth;

  153. }

  154. d[j * 3] = p[j * 3] * alpha + t[j * 3] * (1 - alpha);

  155. d[j * 3 + 1] = p[j * 3 + 1] * alpha + t[j * 3 + 1] * (1 - alpha);

  156. d[j * 3 + 2] = p[j * 3 + 2] * alpha + t[j * 3 + 2] * (1 - alpha);

  157. }

  158. }

  159. }

看一看拼接效果,我觉得还是不错的。

看一下这一组图片,这组图片产生了鬼影,为什么?因为两幅图中的人物走动了啊!所以要做图像拼接,尽量保证使用的是静态图片,不要加入一些动态因素干扰拼接。

opencv自带的拼接算法stitch

opencv其实自己就有实现图像拼接的算法,当然效果也是相当好的,但是因为其实现很复杂,而且代码量很庞大,其实在一些小应用下的拼接有点杀鸡用牛刀的感觉。最近在阅读sticth源码时,发现其中有几个很有意思的地方。

1.opencv stitch选择的特征检测方式

一直很好奇opencv stitch算法到底选用了哪个算法作为其特征检测方式,是ORB,SIFT还是SURF?读源码终于看到答案。

#ifdef HAVE_OPENCV_NONFREEstitcher.setFeaturesFinder(new detail::SurfFeaturesFinder());#elsestitcher.setFeaturesFinder(new detail::OrbFeaturesFinder());#endif

在源码createDefault函数中(默认设置),第一选择是SURF,第二选择才是ORB(没有NONFREE模块才选),所以既然大牛们这么选择,必然是经过综合考虑的,所以应该SURF算法在图像拼接有着更优秀的效果。

2.opencv stitch获取匹配点的方式

以下代码是opencv stitch源码中的特征点提取部分,作者使用了两次特征点提取的思路:先对图一进行特征点提取和筛选匹配(1->2),再对图二进行特征点的提取和匹配(2->1),这跟我们平时的一次提取的思路不同,这种二次提取的思路可以保证更多的匹配点被选中,匹配点越多,findHomography求出的变换越准确。这个思路值得借鉴。

  1. matches_info.matches.clear();

  2. Ptr<flann::IndexParams> indexParams = new flann::KDTreeIndexParams();

  3. Ptr<flann::SearchParams> searchParams = new flann::SearchParams();

  4. if (features2.descriptors.depth() == CV_8U)

  5. {

  6. indexParams->setAlgorithm(cvflann::FLANN_INDEX_LSH);

  7. searchParams->setAlgorithm(cvflann::FLANN_INDEX_LSH);

  8. }

  9. FlannBasedMatcher matcher(indexParams, searchParams);

  10. vector< vector<DMatch> > pair_matches;

  11. MatchesSet matches;

  12. // Find 1->2 matches

  13. matcher.knnMatch(features1.descriptors, features2.descriptors, pair_matches, 2);

  14. for (size_t i = 0; i < pair_matches.size(); ++i)

  15. {

  16. if (pair_matches[i].size() < 2)

  17. continue;

  18. const DMatch& m0 = pair_matches[i][0];

  19. const DMatch& m1 = pair_matches[i][1];

  20. if (m0.distance < (1.f - match_conf_) * m1.distance)

  21. {

  22. matches_info.matches.push_back(m0);

  23. matches.insert(make_pair(m0.queryIdx, m0.trainIdx));

  24. }

  25. }

  26. LOG('\n1->2 matches: ' << matches_info.matches.size() << endl);

  27. // Find 2->1 matches

  28. pair_matches.clear();

  29. matcher.knnMatch(features2.descriptors, features1.descriptors, pair_matches, 2);

  30. for (size_t i = 0; i < pair_matches.size(); ++i)

  31. {

  32. if (pair_matches[i].size() < 2)

  33. continue;

  34. const DMatch& m0 = pair_matches[i][0];

  35. const DMatch& m1 = pair_matches[i][1];

  36. if (m0.distance < (1.f - match_conf_) * m1.distance)

  37. if (matches.find(make_pair(m0.trainIdx, m0.queryIdx)) == matches.end())

  38. matches_info.matches.push_back(DMatch(m0.trainIdx, m0.queryIdx, m0.distance));

  39. }

  40. LOG('1->2 & 2->1 matches: ' << matches_info.matches.size() << endl);

这里我仿照opencv源码二次提取特征点的思路对我原有拼接代码进行改写,实验证明获取的匹配点确实较一次提取要多。

//提取特征点SiftFeatureDetector Detector(1000);  // 海塞矩阵阈值,在这里调整精度,值越大点越少,越精准vector<KeyPoint> keyPoint1, keyPoint2;Detector.detect(image1, keyPoint1);Detector.detect(image2, keyPoint2);//特征点描述,为下边的特征点匹配做准备SiftDescriptorExtractor Descriptor;Mat imageDesc1, imageDesc2;Descriptor.compute(image1, keyPoint1, imageDesc1);Descriptor.compute(image2, keyPoint2, imageDesc2);FlannBasedMatcher matcher;vector<vector<DMatch> > matchePoints;vector<DMatch> GoodMatchePoints;MatchesSet matches;vector<Mat> train_desc(1, imageDesc1);matcher.add(train_desc);matcher.train();matcher.knnMatch(imageDesc2, matchePoints, 2);// Lowe's algorithm,获取优秀匹配点for (int i = 0; i < matchePoints.size(); i++){if (matchePoints[i][0].distance < 0.4 * matchePoints[i][1].distance){GoodMatchePoints.push_back(matchePoints[i][0]);matches.insert(make_pair(matchePoints[i][0].queryIdx, matchePoints[i][0].trainIdx));}}cout<<'\n1->2 matches: ' << GoodMatchePoints.size() << endl;#if 1FlannBasedMatcher matcher2;matchePoints.clear();vector<Mat> train_desc2(1, imageDesc2);matcher2.add(train_desc2);matcher2.train();matcher2.knnMatch(imageDesc1, matchePoints, 2);// Lowe's algorithm,获取优秀匹配点for (int i = 0; i < matchePoints.size(); i++){if (matchePoints[i][0].distance < 0.4 * matchePoints[i][1].distance){if (matches.find(make_pair(matchePoints[i][0].trainIdx, matchePoints[i][0].queryIdx)) == matches.end()){GoodMatchePoints.push_back(DMatch(matchePoints[i][0].trainIdx, matchePoints[i][0].queryIdx, matchePoints[i][0].distance));}}}cout<<'1->2 & 2->1 matches: ' << GoodMatchePoints.size() << endl;#endif

最后再看一下opencv stitch的拼接效果吧~速度虽然比较慢,但是效果还是很好的。

  1. #include <iostream>

  2. #include <opencv2/core/core.hpp>

  3. #include <opencv2/highgui/highgui.hpp>

  4. #include <opencv2/imgproc/imgproc.hpp>

  5. #include <opencv2/stitching/stitcher.hpp>

  6. using namespace std;

  7. using namespace cv;

  8. bool try_use_gpu = false;

  9. vector<Mat> imgs;

  10. string result_name = 'dst1.jpg';

  11. int main(int argc, char * argv[])

  12. {

  13. Mat img1 = imread('34.jpg');

  14. Mat img2 = imread('35.jpg');

  15. imshow('p1', img1);

  16. imshow('p2', img2);

  17. if (img1.empty() || img2.empty())

  18. {

  19. cout << 'Can't read image' << endl;

  20. return -1;

  21. }

  22. imgs.push_back(img1);

  23. imgs.push_back(img2);

  24. Stitcher stitcher = Stitcher::createDefault(try_use_gpu);

  25. // 使用stitch函数进行拼接

  26. Mat pano;

  27. Stitcher::Status status = stitcher.stitch(imgs, pano);

  28. if (status != Stitcher::OK)

  29. {

  30. cout << 'Can't stitch images, error code = ' << int(status) << endl;

  31. return -1;

  32. }

  33. imwrite(result_name, pano);

  34. Mat pano2 = pano.clone();

  35. // 显示源图像,和结果图像

  36. imshow('全景图像', pano);

  37. if (waitKey() == 27)

  38. return 0;

  39. }

(0)

相关推荐

  • 【从零学习OpenCV 4】两图像间的像素操作

    重磅干货,第一时间送达 经过几个月的努力,小白终于完成了市面上第一本OpenCV 4入门书籍<从零学习OpenCV 4>.为了更让小伙伴更早的了解最新版的OpenCV 4,小白与出版社沟通 ...

  • 【从零学习OpenCV 4】多通道分离与合并

    重磅干货,第一时间送达 经过几个月的努力,小白终于完成了市面上第一本OpenCV 4入门书籍<从零学习OpenCV 4>.为了更让小伙伴更早的了解最新版的OpenCV 4,小白与出版社沟通 ...

  • 自适应阈值化操作:adaptiveThreshold()函数

    在图像阈值化操作中,更关注的是从二值化图像中,分离目标区域和背景区域,但是仅仅通过设定固定阈值很难达到理想的分割效果.而自适应阈值,则是根据像素的邻域块的像素值分布来确定该像素位置上的二值化阈值.这样 ...

  • 图像处理基础:图像的灰度变换

    视觉/图像重磅干货,第一时间送达 新机器视觉 最前沿的机器视觉与计算机视觉技术 206篇原创内容 公众号 来源 |  字节流动 灰度变换也被称为图像的点运算(只针对图像的某一像素点)是所有图像处理技术 ...

  • (7条消息) 自适应阈值(adaptiveThreshold)分割原理及实现

    背景介绍及原理 前面介绍了OTSU算法和最大熵算法,但这两种算法都属于全局阈值法,所以对于某些光照不均的图像,这种全局阈值分割的方法会显得苍白无力,如下图: 显然,这样的阈值处理结果不是我们想要的,那 ...

  • Python实现图像的全景拼接

    基本介绍 图像的全景拼接,即"缝合"两张具有重叠区域的图来创建一张全景图.其中用到了计算机视觉和图像处理技术有:关键点特征检测.局部不变特征.关键特征点匹配.RANSAC(Rand ...

  • 【从零学习OpenCV 4】图像像素统计

    重磅干货,第一时间送达 经过几个月的努力,小白终于完成了市面上第一本OpenCV 4入门书籍<从零学习OpenCV 4>.为了更让小伙伴更早的了解最新版的OpenCV 4,小白与出版社沟通 ...

  • OpenCV探索之路(五):图片缩放和图像金字塔

    对图像进行缩放的最简单方法当然是调用resize函数啦! resize函数可以将源图像精确地转化为指定尺寸的目标图像. 要缩小图像,一般推荐使用CV_INETR_AREA来插值:若要放大图像,推荐使用 ...

  • 【计算摄影】浅析多重曝光与自动图像融合技术

    大家好,这是专栏<计算摄影>的第六篇文章,这一个专栏来自于计算机科学与摄影艺术的交叉学科. 作者&编辑 | 言有三 多重曝光(multiple exposure)是摄影中一种采用两 ...

  • 36氪独家 | 「探维科技」宣布完成1亿元A轮融资,量产高线数固态激光雷达,发力硬件级图像融合技术

    36氪独家获悉,固态激光雷达供应商「探维科技」完成1亿元A轮融资,本轮融资由聚卓资本和嘉益基金联合领投,颢腾亚洲.宏升投资跟投.本轮融资主要用于建设车规级的激光雷达生产基地与测试标定中心,以及新产品线 ...

  • 基于OpenCV实战:绘制图像轮廓(附代码)

    重磅干货,第一时间送达 山区和地形图中海拔高的区域划出的线称为地形轮廓,它们提供了地形的高程图.这些线条可以手动绘制,也可以由计算机生成.在本文中,我们将看到如何使用OpenCV在简单图像上绘制轮廓线 ...

  • 超融合技术白皮书(附下载)

    自上世纪90年代中后期开始,以大型机.小型机.大型数据库.集中式存储与业务高可用软件组成的IT架构适应了当时的数据大集中趋势,传统IT设备制造商在这一阶段得到了迅猛的发展,集中式的部署模式带来了对硬件 ...

  • “热融合”技术提高夜视仪效果 轻松发现极暗处的隐藏目标(附视频)

    夜视仪让我们能够穿透夜幕,获得希望的视野. 夜视仪分为两种,微光夜视仪和红外夜视仪,两者各有优缺点,如何将两者进行整合,取长补短,一直是很多企业的研究重点.现在已经有了"热融合(Fusion ...

  • 如何为数据集构建图像重复查找器?(附代码)

    当您从互联网上下载图像时,通常会发现噪声数据.此外,相似的图片都在附近,一个接一个地看到它们并试图找到重复数据来清理数据集是很繁琐的. 考虑到这个问题,作者构建了一个重复的查找程序,为您找到重复项,您 ...

  • 搞懂 Vision Transformer 原理和代码,看这篇技术综述就够了(一)

    快速获得AI干货 回复:OpenCV,下载OpenCV资料及练习代码 回复:MVG,下载计算机视觉中的多视图几何,英文原版及中译本 回复:ML,下载机器学习书籍及实战资料 回复:PCL,下载点云库PC ...

  • 系统设计精选 | 基于FPGA的CAN总线控制器的设计(附代码)

    导读 CAN 总线(Controller Area Network)是控制器局域网的简称,是 20 世纪 80 年代初德国 BOSCH 公司为解决现代汽车中众多的控制与测试仪器之间的数据交换而开发的一 ...

  • 多导弹多目标协同探测信息融合技术研究

    0 引 言 近年来,随着作战飞行器载荷性能的不断提升,过去单一的作战模式逐渐转变为多种飞行器集群联合的作战体系与体系间的对抗.在日益复杂的战场环境下,昔日传统单一作战模式已无法适应大规模空间作战战场环 ...