IOSプログラムで自動遠近法補正を実装しようとしていますが、チュートリアルで見つけたテストイメージを使用すると、すべてが期待どおりに動作します。しかし、写真を撮ると、奇妙な結果が返ってきます。
私はこれにあるコードを使用しています tutorial
次のような画像を指定すると:
結果としてこれを取得します:
dst
が私に与えるものがここにあります。
これを使用して、コードを含むメソッドを呼び出しています。
quadSegmentation(Img, bw, dst, quad);
チュートリアルと比較して非常に多くの緑色の線が表示されている場合、誰にも教えてもらえますか?そして、どうすればこれを修正し、カードのみを含むように画像を適切にトリミングできますか?
必要な透視変換のために、
ソースポイント->ソースイメージ内の四角形の頂点の座標。
宛先ポイント->宛先イメージの対応する四角形の頂点の座標。
ここでは、輪郭プロセスによってこれらのポイントを計算します。
ソース画像の四角形の頂点の座標を計算します
epsilon
を調整して、4つの座標を作成できます。宛先イメージの対応する四角形の頂点の座標を計算します
下の画像では、赤い長方形がソースポイントを表し、宛先ポイントが緑を表しています。
座標の順序を調整し、遠近法変換を適用します
最終結果を見る
コード
Mat src=imread("card.jpg");
Mat thr;
cvtColor(src,thr,CV_BGR2GRAY);
threshold( thr, thr, 70, 255,CV_THRESH_BINARY );
vector< vector <Point> > contours; // Vector for storing contour
vector< Vec4i > hierarchy;
int largest_contour_index=0;
int largest_area=0;
Mat dst(src.rows,src.cols,CV_8UC1,Scalar::all(0)); //create destination image
findContours( thr.clone(), contours, hierarchy,CV_RETR_EXTERNAL, CV_CHAIN_APPROX_SIMPLE ); // Find the contours in the image
for( int i = 0; i< contours.size(); i++ ){
double a=contourArea( contours[i],false); // Find the area of contour
if(a>largest_area){
largest_area=a;
largest_contour_index=i; //Store the index of largest contour
}
}
drawContours( dst,contours, largest_contour_index, Scalar(255,255,255),CV_FILLED, 8, hierarchy );
vector<vector<Point> > contours_poly(1);
approxPolyDP( Mat(contours[largest_contour_index]), contours_poly[0],5, true );
Rect boundRect=boundingRect(contours[largest_contour_index]);
if(contours_poly[0].size()==4){
std::vector<Point2f> quad_pts;
std::vector<Point2f> squre_pts;
quad_pts.Push_back(Point2f(contours_poly[0][0].x,contours_poly[0][0].y));
quad_pts.Push_back(Point2f(contours_poly[0][1].x,contours_poly[0][1].y));
quad_pts.Push_back(Point2f(contours_poly[0][3].x,contours_poly[0][3].y));
quad_pts.Push_back(Point2f(contours_poly[0][2].x,contours_poly[0][2].y));
squre_pts.Push_back(Point2f(boundRect.x,boundRect.y));
squre_pts.Push_back(Point2f(boundRect.x,boundRect.y+boundRect.height));
squre_pts.Push_back(Point2f(boundRect.x+boundRect.width,boundRect.y));
squre_pts.Push_back(Point2f(boundRect.x+boundRect.width,boundRect.y+boundRect.height));
Mat transmtx = getPerspectiveTransform(quad_pts,squre_pts);
Mat transformed = Mat::zeros(src.rows, src.cols, CV_8UC3);
warpPerspective(src, transformed, transmtx, src.size());
Point P1=contours_poly[0][0];
Point P2=contours_poly[0][1];
Point P3=contours_poly[0][2];
Point P4=contours_poly[0][3];
line(src,P1,P2, Scalar(0,0,255),1,CV_AA,0);
line(src,P2,P3, Scalar(0,0,255),1,CV_AA,0);
line(src,P3,P4, Scalar(0,0,255),1,CV_AA,0);
line(src,P4,P1, Scalar(0,0,255),1,CV_AA,0);
rectangle(src,boundRect,Scalar(0,255,0),1,8,0);
rectangle(transformed,boundRect,Scalar(0,255,0),1,8,0);
imshow("quadrilateral", transformed);
imshow("thr",thr);
imshow("dst",dst);
imshow("src",src);
imwrite("result1.jpg",dst);
imwrite("result2.jpg",src);
imwrite("result3.jpg",transformed);
waitKey();
}
else
cout<<"Make sure that your are getting 4 corner using approxPolyDP..."<<endl;
teetheこれは通常、コードを採用するのではなく、特定の問題を解決するために他の誰かのコードに依存しているときに起こります。処理段階、およびそれらとあなたの画像の違いを見てください(彼らの画像から始めて、コードが機能することを確認する方法としては良い考えです):
問題を解決するには、周辺の線のみが抽出されるようにする必要があります。常に暗い背景がある場合は、この事実を使用して、他のコントラスト/極性を持つ線を破棄できます。または、すべての線を抽出してから、画像の境界に最も近い線を選択できます(背景に線がない場合)。