訂閱
糾錯(cuò)
加入自媒體

在 C++ 中使用 OpenCV 對圖像中的對象進(jìn)行扭曲透視

例子。

代碼:

#include <o(jì)pencv2/imgcodecs.hpp>

#include <o(jì)pencv2/highgui.hpp>

#include <o(jì)pencv2/imgproc.hpp>

#include <o(jì)pencv2/objdetect.hpp>

#include <iostream>

using namespace cv;

using namespace std;

string PATH = "funk.jpg"; //Image Path

int AREA_FILTER = 1000;

Mat imgOrg, imgProc, imgWarp;

vector<Point> initialPoints, docPoints;

int w = 420, h = 596;


Mat preProcessing(Mat img)

   cvtColor(img, imgProc, COLOR_BGR2GRAY); // to gray scale

   GaussianBlur(imgProc, imgProc, Size(3,3), 3, 0); // blurring for better canny performance

   Canny(imgProc, imgProc, 25, 75); // edge detection

   Mat kernel = getStructuringElement(MORPH_RECT, Size(3, 3));

   dilate(imgProc, imgProc, kernel);

   return imgProc;



vector<Point> getContours(Mat imgDil){

   //detects the biggest rectangle in image

   vector<vector<Point>> contours; //vectors example: {{Point(20,30),Point(50,60)},{},{}}

   vector<Vec4i> hierarchy;

   findContours(imgDil,contours,hierarchy,RETR_EXTERNAL,CHAIN_APPROX_SIMPLE); //finding contours

   vector<vector<Point>> conPoly(contours.size());

   vector<Rect> boundRect(contours.size());

   vector<Point> biggest;

   int maxArea=0;

   for (int i=0;i<contours.size();i++){

       int area = contourArea(contours[i]);

       string objectType;

       if(area>AREA_FILTER){ //filter small rectangles

           float peri = arcLength(contours[i],true);

           approxPolyDP(contours[i],conPoly[i],0.02*peri,true);

           if(area>maxArea && conPoly[i].size()==4){ //find biggest (4 for rectangle)

               maxArea = area;

               biggest = {conPoly[i][0],conPoly[i][1],conPoly[i][2],conPoly[i][3]};

           }

       }

   }

   return biggest;


void drawPoints(vector<Point> points, Scalar color){

   for(int i=0;i<points.size();i++)

   {

       circle(imgOrg,points[i], 5,color,F(xiàn)ILLED);

       putText(imgOrg, to_string(i),points[i],F(xiàn)ONT_HERSHEY_PLAIN,4,color,4);

   }

vector<Point> reorder(vector<Point> points ){

   vector<Point> newPoints;

   vector<int> sumPoints, subPoints;

   //get corners

   for(int i = 0;i<4;i++){

       sumPoints.push_back(points[i].x + points[i].y);

       subPoints.push_back(points[i].x - points[i].y);

   }

   newPoints.push_back(points[min_element(sumPoints.begin(),sumPoints.end()) - sumPoints.begin()]);

   newPoints.push_back(points[max_element(subPoints.begin(),subPoints.end()) - subPoints.begin()]);

   newPoints.push_back(points[min_element(subPoints.begin(),subPoints.end()) - subPoints.begin()]);

   newPoints.push_back(points[max_element(sumPoints.begin(),sumPoints.end()) - sumPoints.begin()]);

   return newPoints;

Mat getWarp(Mat img, vector<Point> points, float w, float h)

   Point2f src[4] = {points[0],points[1],points[2],points[3]};

   Point2f dst[4] = {{0.0f,0.0f},{w,0.0f},{0.0f,h},{w,h}};

   Mat matrix = getPerspectiveTransform(src,dst);

   warpPerspective(img, imgWarp, matrix, Point(w, h));

   return imgWarp;

void main() {

   //sample

   imgOrg = imread(PATH);

   resize(imgOrg,imgOrg,Size(),0.5,0.5); // reduce the size of the photo in half

   //preprocessing

   imgProc = preProcessing(imgOrg);

   //get contours

   initialPoints = getContours(imgProc);

   //drawPoints(initialPoints,Scalar(0,0,255));

   docPoints = reorder(initialPoints);

   //drawPoints(docPoints,Scalar(0,255,0));

   //warp

   imgWarp = getWarp(imgOrg, docPoints, w, h);

   imshow("Image imgWarp",imgWarp);

   waitKey(0);

讓我們分解代碼;

首先我們讀取圖像文件。然后我們(可選地)減小圖像的大小。

string PATH = "funk.jpg"; //Image Path

imgOrg = imread(PATH);    

resize(imgOrg,imgOrg,Size(),0.5,0.5);

為了從操作中獲得更好的結(jié)果,我們首先需要對圖像進(jìn)行一些預(yù)處理和轉(zhuǎn)換。我在一個(gè)稱為預(yù)處理的方法中收集了所有這些過程。

預(yù)處理功能

在使用 opencv 時(shí),我們經(jīng)常將圖像轉(zhuǎn)換為灰度。原因是:

· 它減小了尺寸。我們獲得了單個(gè)通道,而不是 RGB 的三個(gè)通道。

· 我們得到更低的復(fù)雜性。RGB:10x10x3 像素 = 300 個(gè)數(shù)據(jù);灰度:我們只有10x10x1 = 100 個(gè)輸入。

· 許多 Opencv 方法只能在灰度下工作。因此,有必要提前進(jìn)行轉(zhuǎn)換。

cvtColor(img, imgProc, COLOR_BGR2GRAY);

我們將使用 Canny Edge Detector 來檢測角點(diǎn)。它在圖像模糊的情況下獲得了更好的效果。這個(gè)過程稱為平滑。邊緣檢測器內(nèi)核對噪聲非常敏感。因此,始終有必要應(yīng)用平滑。

Size(3,3):高斯核的大小。

GaussianBlur(imgProc, imgProc, Size(3,3), 3, 0);

Canny 函數(shù)從圖像中提取邊緣。25 和 75 值是保留在該過程中提取的邊緣的閾值。

Canny(imgProc, imgProc, 25, 75);

為形態(tài)學(xué)操作創(chuàng)建一個(gè)矩形內(nèi)核。

Mat kernel = getStructuringElement(MORPH_RECT, Size(3, 3));

我們將使用膨脹作為形態(tài)學(xué)操作。膨脹增加了對象的面積,它增加了圖像中的白色區(qū)域。

dilate(imgProc, imgProc, kernel);

現(xiàn)在讓我們獲取對象的輪廓;

initialPoints = getContours(imgProc);

在getContour方法中,我們檢測將扭曲其透視圖并提取其輪廓的對象。

獲取輪廓

findContours方法將返回我們的輪廓點(diǎn)。我們需要保留所有找到的點(diǎn)嗎?

如果我們傳遞 CHAIN_APPROX_NONE 參數(shù),那么所有的點(diǎn)都會(huì)被保留。但是,我們可以通過消除冗余點(diǎn)來獲得存儲(chǔ)空間。為此,我們也可以傳遞 CHAIN_APPROX_SIMPLE。

為了獲得外部輪廓,我們通過了 RETR_EXTERNAL

findContours(imgDil,contours,hierarchy,RETR_EXTERNAL,CHAIN_APPROX_SIMPLE); //finding contours

然后,在 for 循環(huán)中,我們?nèi)コ肼暡@取對象。

我們計(jì)算每個(gè)輪廓的面積。面積必須大于過濾常數(shù);

int area = contourArea(contours[i]);

...

if(area>AREA_FILTER){ //filter small rectangles

我們將在對象周圍找到邊界框。true表示對象已關(guān)閉。

float peri = arcLength(contours[i],true);

我們將找到矩形。

approxPolyDP(contours[i],conPoly[i],0.02*peri,true);            if(area>maxArea && conPoly[i].size()==4){ //find biggest (4 for rectangle)                maxArea = area;                biggest = {conPoly[i][0],conPoly[i][1],conPoly[i][2],conPoly[i][3]};            }

我們得到對象的點(diǎn);

docPoints = reorder(initialPoints);

扭曲:

imgWarp = getWarp(imgOrg, docPoints, w, h);

參考

image.png

       原文標(biāo)題 : 在 C++ 中使用 OpenCV 對圖像中的對象進(jìn)行扭曲透視

聲明: 本文由入駐維科號(hào)的作者撰寫,觀點(diǎn)僅代表作者本人,不代表OFweek立場。如有侵權(quán)或其他問題,請聯(lián)系舉報(bào)。

發(fā)表評論

0條評論,0人參與

請輸入評論內(nèi)容...

請輸入評論/評論長度6~500個(gè)字

您提交的評論過于頻繁,請輸入驗(yàn)證碼繼續(xù)

  • 看不清,點(diǎn)擊換一張  刷新

暫無評論

暫無評論

    人工智能 獵頭職位 更多
    掃碼關(guān)注公眾號(hào)
    OFweek人工智能網(wǎng)
    獲取更多精彩內(nèi)容
    文章糾錯(cuò)
    x
    *文字標(biāo)題:
    *糾錯(cuò)內(nèi)容:
    聯(lián)系郵箱:
    *驗(yàn) 證 碼:

    粵公網(wǎng)安備 44030502002758號(hào)