WindowsでopenCV 1.1pre1を使用しています。ネットワークカメラを使用しており、openCVからフレームを取得する必要があります。そのカメラは、RTSP経由で標準のmpeg4ストリームを、http経由でmjpegをストリーミングできます。 openCVでffmpegを使用することについて話している多くのスレッドを見てきましたが、動作させることはできません。
OpenCVでIPカメラからフレームを取得するにはどうすればよいですか?
ありがとう
アンドレア
rtspプロトコルは機能しませんでした。 mjpegは最初の試行で動作しました。カメラ(Dlink DCS 900)に組み込まれていると思います。
ここにある構文: http://answers.opencv.org/question/133/how-do-i-access-an-ip-camera/
FfmpgをサポートしてOpenCVをコンパイルする必要はありませんでした。
フレームを取得するためのC++コードを同封しました。 OpenCVバージョン2.0以降が必要です。コードは、古いIplImage構造よりも好ましいcv :: mat構造を使用します。
#include "cv.h"
#include "highgui.h"
#include <iostream>
int main(int, char**) {
cv::VideoCapture vcap;
cv::Mat image;
const std::string videoStreamAddress = "rtsp://cam_address:554/live.sdp";
/* it may be an address of an mjpeg stream,
e.g. "http://user:pass@cam_address:8081/cgi/mjpg/mjpg.cgi?.mjpg" */
//open the video stream and make sure it's opened
if(!vcap.open(videoStreamAddress)) {
std::cout << "Error opening video stream or file" << std::endl;
return -1;
}
//Create output window for displaying frames.
//It's important to create this window outside of the `for` loop
//Otherwise this window will be created automatically each time you call
//`imshow(...)`, which is very inefficient.
cv::namedWindow("Output Window");
for(;;) {
if(!vcap.read(image)) {
std::cout << "No frame" << std::endl;
cv::waitKey();
}
cv::imshow("Output Window", image);
if(cv::waitKey(1) >= 0) break;
}
}
更新 H.264 RTSPストリームからフレームを取得できます。 URLコマンドを取得するための詳細については、カメラAPIを検索してください。たとえば、Axisネットワークカメラの場合、URLアドレスは次のようになります。
// H.264 stream RTSP address, where 10.10.10.10 is an IP address
// and 554 is the port number
rtsp://10.10.10.10:554/axis-media/media.amp
// if the camera is password protected
rtsp://username:[email protected]:554/axis-media/media.amp
#include <stdio.h>
#include "opencv.hpp"
int main(){
CvCapture *camera=cvCaptureFromFile("http://username:pass@cam_address/axis-cgi/mjpg/video.cgi?resolution=640x480&req_fps=30&.mjpg");
if (camera==NULL)
printf("camera is null\n");
else
printf("camera is not null");
cvNamedWindow("img");
while (cvWaitKey(10)!=atoi("q")){
double t1=(double)cvGetTickCount();
IplImage *img=cvQueryFrame(camera);
double t2=(double)cvGetTickCount();
printf("time: %gms fps: %.2g\n",(t2-t1)/(cvGetTickFrequency()*1000.), 1000./((t2-t1)/(cvGetTickFrequency()*1000.)));
cvShowImage("img",img);
}
cvReleaseCapture(&camera);
}
OpenCVは、FFMPEGサポートを使用してコンパイルできます。 ./ configure --helpから:
--with-ffmpeg use ffmpeg libraries (see LICENSE) [automatic]
その後、cvCreateFileCapture_FFMPEGを使用して、CvCaptureを作成できます。カメラのMJPGストリームのURL。
これを使用して、AXISカメラからフレームを取得します。
CvCapture *capture =
cvCreateFileCapture_FFMPEG("http://axis-cam/mjpg/video.mjpg?resolution=640x480&req_fps=10&.mjpg");
私はこのようにします:
CvCapture *capture = cvCreateFileCapture("rtsp://camera-address");
また、このdllが実行時に利用可能であることを確認してください。そうでない場合、cvCreateFileCaptureはNULLを返します。
opencv_ffmpeg200d.dll
カメラは認証されていないアクセスも許可する必要があり、通常はWebインターフェースを介して設定されます。 MJPEG形式はrtsp経由で機能しましたが、MPEG4は機能しませんでした。
hth
Si
Ffmpeglibを使用して、ストリームに接続します。
これらの機能は役に立つかもしれません。しかし、ドキュメントを見てください
av_open_input_stream(...);
av_find_stream_info(...);
avcodec_find_decoder(...);
avcodec_open(...);
avcodec_alloc_frame(...);
完全なフレームを取得するには少しアルゴが必要になります。これはここから入手できます
http://www.dranger.com/ffmpeg/tutorial01.html
フレームを取得したら、ビデオデータを(必要に応じて各プレーンごとに)OpenCV画像オブジェクトであるIplImageにコピーできます。
次のようなものを使用してIplImageを作成できます。
IplImage *p_gray_image = cvCreateImage(size, IPL_DEPTH_8U, 1);
IplImageを取得したら、OpenCV libで利用可能なあらゆる種類の画像操作を実行できます。