2016-10-18 1 views
2

ORB 기능으로 이미지 등록을 시도하고 있습니다. warpAffine을 사용할 때 문제가 있습니다. 컴파일러는 매개 변수 '1'을 cv :: Mat *에서 cv :: InputArray로 변환 할 수 없다고 말했습니다. 내가 에브 게니에 의해 주어진 답을 사용하기 전에 결과를 가지고OpenCV의 warpAffine을 사용하여 이미지 등록

#pragma once 

// Standard C++ I/O library. 
#include <iostream> 
#include <string> 
#include <iomanip> 
#include <vector> 


// OpenCV library. 
#include <cv.h> 
#include <highgui.h> 

// OpenCV feature library. 
#include <opencv2/opencv.hpp> 
#include <opencv2/features2d/features2d.hpp> 
#include <nonfree/features2d.hpp> 




// main(). 
int main(int argv, char ** argc) 
{ 
    cv::Mat im_ref, im_cmp; 

    std::string str_ref, str_cmp; 

    // Read reference image. 
    //std::cout<<"Input reference image filename: "; 
    //std::cin>>str_ref; 
    std::cout<<"-> Reading images."<<std::endl; 
    str_ref = "F:\\CPPs\\ImageRegistration\\OpenCVTest\\206.png"; 

    im_ref = cv::imread(str_ref); 
    cv::imshow("Reference image", im_ref); 

    // Read testing image. 
    //std::cout<<"Input testing image filename: "; 
    //std::cin>>str_cmp; 
    str_cmp = "F:\\CPPs\\ImageRegistration\\OpenCVTest\\227.png"; 

    im_cmp = cv::imread(str_cmp); 
    cv::imshow("Testing image", im_cmp); 

    std::cout<<"Press any key to continue."<<std::endl; 
    cvWaitKey(0); 



    // Feature detection. 
    std::cout<<"-> Feature detection."<<std::endl; 
    std::vector <cv::KeyPoint> key_ref, key_cmp;   // Vectors for features extracted from reference and testing images. 
    cv::Mat des_ref, des_cmp;        // Descriptors for features of 2 images. 

    cv::ORB orb1;           // An ORB object. 

    orb1(im_ref, cv::Mat(), key_ref, des_ref);    // Feature extraction. 
    orb1(im_cmp, cv::Mat(), key_cmp, des_cmp); 


    // Show keypoints. 
    std::cout<<"-> Show keypoints."<<std::endl; 
    cv::Mat drawkey_ref, drawkey_cmp;        // Output image for keypoint drawing. 
    cv::drawKeypoints(im_ref, key_ref, drawkey_ref);    // Generate image for keypoint drawing. 
    cv::imshow("Keypoints of reference", drawkey_ref); 
    cv::drawKeypoints(im_cmp, key_cmp, drawkey_cmp); 
    cv::imshow("Keypoints of test", drawkey_cmp); 

    cvWaitKey(0); 


    // Matching. 
    std::cout<<"-> Matching."<<std::endl; 
    cv::FlannBasedMatcher matcher1(new cv::flann::LshIndexParams(20,10,2)); 
    std::vector<cv::DMatch> matches1; 
    matcher1.match(des_ref, des_cmp, matches1);   // Match two sets of features. 

    double max_dist = 0; 
    double min_dist = 100; 

    // Find out the minimum and maximum of all distance. 
    for(int i = 0; i < des_ref.rows; i++) 
    { 
     double dist = matches1[i].distance; 
     if(dist < min_dist) min_dist = dist; 
     if(dist > max_dist) max_dist = dist; 
    } 

    cvWaitKey(0); 


    // Eliminate relatively bad points. 
    std::cout<<"-> Bad points elimination"<<std::endl; 
    std::vector<cv::KeyPoint> kgood_ref, kgood_cmp; 
    std::vector<cv::DMatch> goodMatch; 
    for (int i=0; i<matches1.size(); i++) 
    { 
     if(matches1[i].distance < 2*min_dist)  // Keep points that are less than 2 times of the minimum distance. 
     { 
      goodMatch.push_back(matches1[i]); 
      kgood_ref.push_back(key_ref[i]); 
      kgood_cmp.push_back(key_cmp[i]); 
     } // end if 
    } // end for 
    cvWaitKey(0); 


    // Calculate affine transform matrix. 
    std::cout<<"-> Calculating affine transformation."<<std::endl; 
    std::vector<cv::Point2f> frm1_feature, frm2_feature; 
    const int p_size = goodMatch.size(); 
    // * tmpP = new tmpPoint[p_size]; 
    cv::Point2f tmpP; 


    for(int i=0; i<goodMatch.size(); i++) 
    { 
     tmpP.x = kgood_ref[i].pt.x; 
     tmpP.y = kgood_ref[i].pt.y; 
     frm1_feature.push_back(tmpP); 

     tmpP.x = kgood_cmp[i].pt.x; 
     tmpP.y = kgood_cmp[i].pt.y; 
     frm2_feature.push_back(tmpP); 
    } 
    cv::Mat affine_mat = cv::estimateRigidTransform(frm1_feature, frm2_feature, true); 
    cv::Mat im_transformed; 

    // Output results. 
    cv::warpAffine(&im_cmp, &im_transformed, affine_mat, CV_INTER_LINEAR|CV_WARP_FILL_OUTLIERS); // error comes from here. 
    cv::imshow("Transformed image", im_transformed); 

    cvWaitKey(0); 

    return 0; 
} 

: 다음은 내 코드입니다. 사용했던 내가

//cv::warpAffine(im_cmp, im_transformed, affine_mat, cv::Size(im_cmp.cols, im_cmp.rows)); 

변환 된 결과는 매우 이상한입니다 변환

enter image description here 내가하고 싶은 것은 마지막으로 참조 영상이 변화 이미지 모두의 병합 된 이미지를 얻을 수 있습니다. 이것은 실제로 제 첫 걸음입니다. 이 문제는 warpAffine()의 변형 매개 변수를 사용하는 문제입니까?

마지막으로, 여기 예를 들어 같은 결과 (두 이미지의 차이 위치에서 촬영하고 마지막으로 정렬) enter image description here

+0

을 '&를'제거 - 그것은 원래의 diffrent입니다. affine_mat 및 calss wrapAffine을 작성하는 코드를 게시하십시오. 귀하의 질문을 구체화 – Evgeniy

+0

감사합니다 Evgeniy. 결과는 같습니다. – user18441

+0

http://stackoverflow.com/questions/29169605/align-images-based-on-a-detected-features-in-opencv – Evgeniy

답변

1

당신은 포인터를 제공하고 있지만 wrapAffine는 이력서 ::에 대한 참조를 받아들이을 얻으려면 매트. 당신은 다음과 같은 코드를 변경할 수 있습니다 : 당신이 질문에 대한 업데이 트를 만든 후

cv::warpAffine(im_cmp, im_transformed, affine_mat, cv::Size(), CV_INTER_LINEAR|CV_WARP_FILL_OUTLIERS); 

그냥

+0

이전에 시도했지만 매개 변수 4는 "int"에서 "cv :: Size"로 변환 할 수 없습니다. – user18441

+0

@ user18441, 업데이트 됨 – Evgeniy