• 如果您觉得本站非常有看点,那么赶紧使用Ctrl+D 收藏吧

OpenCV开发笔记(六十五):红胖子8分钟带你深入了解ORB特征点(图文并茂+浅显易懂+程序源码)

开发技术 开发技术 2周前 (06-23) 22次浏览

若该文为原创文章,未经允许不得转载
原博主博客地址:https://blog.csdn.net/qq21497936
原博主博客导航:https://blog.csdn.net/qq21497936/article/details/102478062
本文章博客地址:https://blog.csdn.net/qq21497936/article/details/106926496
各位读者,知识无穷而人力有穷,要么改需求,要么找专业人士,要么自己研究
红胖子(红模仿)的博文大全:开发技术集合(包含Qt实用技术、树莓派、三维、OpenCV、OpenGL、ffmpeg、OSG、单片机、软硬结合等等)持续更新中…(点击传送门)

OpenCV开发专栏(点击传送门)

上一篇:《OpenCV开发笔记(六十四):红胖子8分钟带你深入了解SURF特征点(图文并茂+浅显易懂+程序源码)》
下一篇:持续补充中…

 

前言

  红胖子,来也!
  识别除了传统的模板匹配之外就是体征点了,前面介绍了Suft特征点,还有一个传统的就会ORB特征点了。
  其实识别的特征点多种多样,既可以自己写也可以使用opencv为我们提供的,一般来说根据特征点的特性和效率,选择适合我们场景的特征就可以了。
  本篇,介绍ORB特征提取。

 

Demo

  OpenCV开发笔记(六十五):红胖子8分钟带你深入了解ORB特征点(图文并茂+浅显易懂+程序源码)
  OpenCV开发笔记(六十五):红胖子8分钟带你深入了解ORB特征点(图文并茂+浅显易懂+程序源码)
  OpenCV开发笔记(六十五):红胖子8分钟带你深入了解ORB特征点(图文并茂+浅显易懂+程序源码)
  OpenCV开发笔记(六十五):红胖子8分钟带你深入了解ORB特征点(图文并茂+浅显易懂+程序源码)

 

ORB特征点

概述

  ORB是ORiented Brief的简称,是briedf算法的改进版,于2011年在《ORB:an fficient alternative to SIFT or SURF》中提出。
ORB算法分为两部分,分别是特征点提取和特征点描述:

  • 特征提取:由FAST(Features from Accelerated Segment Test)算法发展来的;
  • 特征点描述:根据BRIEF(Binary Robust IndependentElementary Features)特征描述算法改进的。

  ORB特征是将FAST特征点的检测方法与BRIEF特征描述子结合起来,并在它们原来的基础上做了改进与优化。据说,ORB算法的速度是sift的100倍,是surf的10倍。

Brief描述子

  该特征描述子是在特征点附近随机选取若干点对,将这些点对的灰度值的大小,组合成一个二进制串,组合成一个二进制传,并将这个二进制串作为该特征点的特征描述子。
  Brief的速度快,但是使用灰度值作为描述字计算的源头,毫无疑问会有一些显而易见的问题:

  • 旋转后灰度变了导致无法识别,因其不具备旋转不变形;
  • 由于是计算灰度,噪声灰度化则无法去噪,所以对噪声敏感;
  • 尺度不同影响灰度计算,所以也不具备尺度不变形;
    ORB是试图使其具备旋转不变性和降低噪声敏感度而提出的。

特征检测步骤

步骤一:使用brief算子的方式初步提取。

  该步能够提取大量的特征点,但是有很大一部分的特征点的质量不高。从图像中选取一点P,以P为圆心画一个半径为N像素半径的圆。圆周上如果有连续n个像素点的灰度值比P点的灰度值大或者小,则认为P为特征点。
  OpenCV开发笔记(六十五):红胖子8分钟带你深入了解ORB特征点(图文并茂+浅显易懂+程序源码)

步骤二:机器学习的方法筛选最优特征点。

  通俗来说就是使用ID3算法训练一个决策树,将特征点圆周上的16个像素输入决策树中,以此来筛选出最优的FAST特征点。

步骤三:非极大值抑制去除局部较密集特征点。

  使用非极大值抑制算法去除临近位置多个特征点的问题。为每一个特征点计算出其响应大小。计算方式是特征点P和其周围16个特征点偏差的绝对值和。在比较临近的特征点中,保留响应值较大的特征点,删除其余的特征点。

步骤四:使用金字塔来实现多尺度不变形。

步骤五:使用图像的矩判断特征点的旋转不变性

  ORB算法提出使用矩(moment)法来确定FAST特征点的方向。也就是说通过矩来计算特征点以r为半径范围内的质心,特征点坐标到质心形成一个向量作为该特征点的方向。

ORB类的使用

cv::Ptr<cv::ORB> _pOrb = cv::ORB::create();
std::vector<cv::KeyPoint> keyPoints1;
//特征点检测
_pOrb->detect(srcMat, keyPoints1);

ORB相关函数原型

static Ptr<ORB> create(int nfeatures=500,
                       float scaleFactor=1.2f,
                       int nlevels=8,
                       int edgeThreshold=31,
                       int firstLevel=0,
                       int WTA_K=2,
                       int scoreType=ORB::HARRIS_SCORE,
                       int patchSize=31,
                       int fastThreshold=20);
  • 参数一:int类型的nfeatures,用于ORB的,保留最大的关键点数,默认值500;
  • 参数二:float类型的scaleFactor,比例因子,大于1时为金字塔抽取比。的等于2表示经典的金字塔,每一个下一层的像素比上一层少4倍,但是比例系数太大了将显著降低特征匹配分数。另一方面,太接近1个比例因子这意味着要覆盖一定的范围,你需要更多的金字塔级别,所以速度会受影响的,默认值1.2f;
  • 参数三:int类型的nlevels,nlevels金字塔级别的数目。最小级别的线性大小等于输入图像线性大小/功率(缩放因子,nlevels-第一级),默认值为8;
  • 参数四:int类型的edgeThreshold,edgeThreshold这是未检测到功能的边框大小。它应该大致匹配patchSize参数。;
  • 参数五:int类型的firstLevel,要将源图像放置到的金字塔级别。以前的图层已填充使用放大的源图像;
  • 参数六:int类型的WTA_K,生成定向简短描述符的每个元素的点数。这个默认值2是指取一个随机点对并比较它们的亮度,所以我们得到0/1的响应。其他可能的值是3和4。例如,3表示我们取3随机点(当然,这些点坐标是随机的,但是它们是由预定义的种子,因此简短描述符的每个元素都是从像素确定地计算出来的矩形),找到最大亮度点和获胜者的输出索引(0、1或2)。如此输出将占用2位,因此需要一个特殊的汉明距离变量,表示为NORM_HAMMING2(每箱2位)。当WTA_K=4时,我们取4个随机点计算每个点bin(也将占用可能值为0、1、2或3的2位)。;
  • 参数七:int类型的scoreType,HARRIS_SCORES表示使用HARRIS算法对特征进行排序(分数写入KeyPoint::score,用于保留最佳nfeatures功能);FAST_SCORE是产生稍微不稳定关键点的参数的替代值,但计算起来要快一点;
  • 参数八:int类型的patchSize,定向简短描述符使用的修补程序的大小。当然,在较小的金字塔层特征覆盖的感知图像区域将更大;
  • 参数九:int类型的fastThreshold,快速阈值;
void xfeatures2d::SURT::detect( InputArray image,
                                std::vector<KeyPoint>& keypoints,
                                InputArray mask=noArray() );
  • 参数一:InputArray类型的image,输入cv::Mat;
  • 参数二:std::Vector类型的keypoints,检测到的关键点;
  • 参数三:InputArray类型的mask,默认为空,指定在何处查找关键点的掩码(可选)。它必须是8位整数感兴趣区域中具有非零值的矩阵。;
void xfeatures2d::SURT::compute( InputArray image,
                                 std::vector<KeyPoint>& keypoints,
                                 OutputArray descriptors );
  • 参数一:InputArray类型的image,输入cv::Mat;
  • 参数二:std::Vector类型的keypoints,描述符不能为其已删除计算的。有时可以添加新的关键点,例如:SIFT duplicates keypoint有几个主要的方向(每个方向);
  • 参数三:OutputArray类型的descriptors,计算描述符;
// 该函数结合了detect和compute,参照detect和compute函数参数
void xfeatures2d::SURT::detectAndCompute( InputArray image,
                                          InputArray mask,
                                          std::vector<KeyPoint>& keypoints,
                                          OutputArray descriptors,
                                          bool useProvidedKeypoints=false );

绘制关键点函数原型

void drawKeypoints( InputArray image,
                    const std::vector<KeyPoint>& keypoints,
                    InputOutputArray outImage,
                    const Scalar& color=Scalar::all(-1),
                    int flags=DrawMatchesFlags::DEFAULT );
  • 参数一:InputArray类型的image,;
  • 参数二:std::Vector类型的keypoints,原图的关键点;
  • 参数三:InputOutputArray类型的outImage,其内容取决于定义在输出图像。请参阅参数五的标志flag);
  • 参数四:cv::Scalar类型的color,绘制关键点的颜色,默认为Scalar::all(-1)随机颜色,每个点都是这个颜色,那么随机时,每个点都是随机的;
  • 参数五:int类型的flags,默认为DEFAULT,具体参照DrawMatchesFlags枚举如下:
    OpenCV开发笔记(六十五):红胖子8分钟带你深入了解ORB特征点(图文并茂+浅显易懂+程序源码)
 

相关博客

  本源码中包含了“透视变换”,请参照博文《OpenCV开发笔记(五十一):红胖子8分钟带你深入了解透视变换(图文并茂+浅显易懂+程序源码)》

 

特征点总结

  根据前面连续三篇的特征点,我们其实可以猜到了所有的匹配都是这样提取特征点,然后使用一些算法来匹配,至于使用什么特征点提取就是需要开发者根据实际的经验去选取,单一的特征点/多种特征点提取混合/自己写特征点等等多种方式去提取特征点,为后一步的特征点匹配做准备,特征点通用的就到此篇,后续会根据实际开发项目中使用的到随时以新的篇章博文去补充。
  《OpenCV开发笔记(六十三):红胖子8分钟带你深入了解SIFT特征点(图文并茂+浅显易懂+程序源码)》
  《OpenCV开发笔记(六十四):红胖子8分钟带你深入了解SURF特征点(图文并茂+浅显易懂+程序源码
  《OpenCV开发笔记(六十五):红胖子8分钟带你深入了解ORB特征点(图文并茂+浅显易懂+程序源码)》

 

Demo源码

void OpenCVManager::testOrbFeatureDetector()
{
    QString fileName1 = "13.jpg";
    int width = 400;
    int height = 300;

    cv::Mat srcMat = cv::imread(fileName1.toStdString());
    cv::resize(srcMat, srcMat, cv::Size(width, height));

    cv::String windowName = _windowTitle.toStdString();
    cvui::init(windowName);

    cv::Mat windowMat = cv::Mat(cv::Size(srcMat.cols * 2, srcMat.rows * 3),
                                srcMat.type());
    cv::Ptr<cv::ORB> _pObr = cv::ORB::create();

    int k1x = 0;
    int k1y = 0;
    int k2x = 100;
    int k2y = 0;
    int k3x = 100;
    int k3y = 100;
    int k4x = 0;
    int k4y = 100;
    while(true)
    {
        windowMat = cv::Scalar(0, 0, 0);

        cv::Mat mat;

        // 原图先copy到左边
        mat = windowMat(cv::Range(srcMat.rows * 1, srcMat.rows * 2),
                        cv::Range(srcMat.cols * 0, srcMat.cols * 1));
        cv::addWeighted(mat, 0.0f, srcMat, 1.0f, 0.0f, mat);

        {
            std::vector<cv::KeyPoint> keyPoints1;
            std::vector<cv::KeyPoint> keyPoints2;

            cvui::printf(windowMat, 0 + width * 1, 10 + height * 0, "k1x");
            cvui::trackbar(windowMat, 0 + width * 1, 20 + height * 0, 165, &k1x, 0, 100);
            cvui::printf(windowMat, 0 + width * 1, 70 + height * 0, "k1y");
            cvui::trackbar(windowMat, 0 + width * 1, 80 + height * 0, 165, &k1y, 0, 100);

            cvui::printf(windowMat, width / 2 + width * 1, 10 + height * 0, "k2x");
            cvui::trackbar(windowMat, width / 2 + width * 1, 20 + height * 0, 165, &k2x, 0, 100);
            cvui::printf(windowMat, width / 2 + width * 1, 70 + height * 0, "k2y");
            cvui::trackbar(windowMat, width / 2 + width * 1, 80 + height * 0, 165, &k2y, 0, 100);

            cvui::printf(windowMat, 0 + width * 1, 10 + height * 0 + height / 2, "k3x");
            cvui::trackbar(windowMat, 0 + width * 1, 20 + height * 0 + height / 2, 165, &k3x, 0, 100);
            cvui::printf(windowMat, 0 + width * 1, 70 + height * 0 + height / 2, "k3y");
            cvui::trackbar(windowMat, 0 + width * 1, 80 + height * 0 + height / 2, 165, &k3y, 0, 100);

            cvui::printf(windowMat, width / 2 + width * 1, 10 + height * 0 + height / 2, "k4x");
            cvui::trackbar(windowMat, width / 2 + width * 1, 20 + height * 0 + height / 2, 165, &k4x, 0, 100);
            cvui::printf(windowMat, width / 2 + width * 1, 70 + height * 0 + height / 2, "k4y");
            cvui::trackbar(windowMat, width / 2 + width * 1, 80 + height * 0 + height / 2, 165, &k4y, 0, 100);

            std::vector<cv::Point2f> srcPoints;
            std::vector<cv::Point2f> dstPoints;

            srcPoints.push_back(cv::Point2f(0.0f, 0.0f));
            srcPoints.push_back(cv::Point2f(srcMat.cols - 1, 0.0f));
            srcPoints.push_back(cv::Point2f(srcMat.cols - 1, srcMat.rows - 1));
            srcPoints.push_back(cv::Point2f(0.0f, srcMat.rows - 1));

            dstPoints.push_back(cv::Point2f(srcMat.cols * k1x / 100.0f, srcMat.rows * k1y / 100.0f));
            dstPoints.push_back(cv::Point2f(srcMat.cols * k2x / 100.0f, srcMat.rows * k2y / 100.0f));
            dstPoints.push_back(cv::Point2f(srcMat.cols * k3x / 100.0f, srcMat.rows * k3y / 100.0f));
            dstPoints.push_back(cv::Point2f(srcMat.cols * k4x / 100.0f, srcMat.rows * k4y / 100.0f));

            cv::Mat M = cv::getPerspectiveTransform(srcPoints, dstPoints);
            cv::Mat srcMat2;
            cv::warpPerspective(srcMat,
                                srcMat2,
                                M,
                                cv::Size(srcMat.cols, srcMat.rows),
                                cv::INTER_LINEAR,
                                cv::BORDER_CONSTANT,
                                cv::Scalar::all(0));

            mat = windowMat(cv::Range(srcMat.rows * 1, srcMat.rows * 2),
                            cv::Range(srcMat.cols * 1, srcMat.cols * 2));
            cv::addWeighted(mat, 0.0f, srcMat2, 1.0f, 0.0f, mat);

            //特征点检测
            _pObr->detect(srcMat, keyPoints1);
            //绘制特征点(关键点)
            cv::Mat resultShowMat;
            cv::drawKeypoints(srcMat,
                             keyPoints1,
                             resultShowMat,
                             cv::Scalar(0, 0, 255),
                             cv::DrawMatchesFlags::DRAW_RICH_KEYPOINTS);
            mat = windowMat(cv::Range(srcMat.rows * 2, srcMat.rows * 3),
                            cv::Range(srcMat.cols * 0, srcMat.cols * 1));
            cv::addWeighted(mat, 0.0f, resultShowMat, 1.0f, 0.0f, mat);

            //特征点检测
            _pObr->detect(srcMat2, keyPoints2);
            //绘制特征点(关键点)
            cv::Mat resultShowMat2;
            cv::drawKeypoints(srcMat2,
                             keyPoints2,
                             resultShowMat2,
                             cv::Scalar(0, 0, 255),
                             cv::DrawMatchesFlags::DRAW_RICH_KEYPOINTS);
            mat = windowMat(cv::Range(srcMat.rows * 2, srcMat.rows * 3),
                           cv::Range(srcMat.cols * 1, srcMat.cols * 2));
            cv::addWeighted(mat, 0.0f, resultShowMat2, 1.0f, 0.0f, mat);

            cv::imshow(windowName, windowMat);
        }
        // 更新
        cvui::update();
        // 显示
        // esc键退出
        if(cv::waitKey(25) == 27)
        {
            break;
        }
    }
}
 

工程模板:对应版本号v1.59.0

  对应版本号v1.59.0

 

上一篇:《OpenCV开发笔记(六十四):红胖子8分钟带你深入了解SURF特征点(图文并茂+浅显易懂+程序源码)》
下一篇:持续补充中…

 

原博主博客地址:https://blog.csdn.net/qq21497936
原博主博客导航:https://blog.csdn.net/qq21497936/article/details/102478062
本文章博客地址:https://blog.csdn.net/qq21497936/article/details/106926496


喜欢 (0)