私はFFmpeg libavformatでAxisカメラからRTSPストリームを記録しようとしています。ファイルからビデオを取得して別のファイルに保存できます。これで問題ありません。しかし、カメラは奇妙なデータを送信し、FPSは100で、カメラは4フレームごとに送信するため、結果のFPSは約25です。しかし、libavformatは90000 fpsのパケットのdts/ptsを設定し(デフォルト?)、新しいファイルストリームは100fpsです。結果は、100フレームのみの1時間のビデオです。
これが私のコードです
#include <stdio.h>
#include <stdlib.h>
#include <libavcodec/avcodec.h>
#include <libavformat/avformat.h>
#include <libavformat/avio.h>
int main(int argc, char** argv) {
AVFormatContext* context = avformat_alloc_context();
int video_stream_index;
av_register_all();
avcodec_register_all();
avformat_network_init();
//open rtsp
if(avformat_open_input(&context, "rtsp://195.200.199.8/mpeg4/media.amp",NULL,NULL) != 0){
return EXIT_FAILURE;
}
if(avformat_find_stream_info(context,NULL) < 0){
return EXIT_FAILURE;
}
//search video stream
for(int i =0;i<context->nb_streams;i++){
if(context->streams[i]->codec->codec_type == AVMEDIA_TYPE_VIDEO)
video_stream_index = i;
}
AVPacket packet;
av_init_packet(&packet);
//open output file
AVOutputFormat* fmt = av_guess_format(NULL,"test2.avi",NULL);
AVFormatContext* oc = avformat_alloc_context();
oc->oformat = fmt;
avio_open2(&oc->pb, "test.avi", AVIO_FLAG_WRITE,NULL,NULL);
AVStream* stream=NULL;
int cnt = 0;
//start reading packets from stream and write them to file
av_read_play(context);//play RTSP
while(av_read_frame(context,&packet)>=0 && cnt <100){//read 100 frames
if(packet.stream_index == video_stream_index){//packet is video
if(stream == NULL){//create stream in file
stream = avformat_new_stream(oc,context->streams[video_stream_index]->codec->codec);
avcodec_copy_context(stream->codec,context->streams[video_stream_index]->codec);
stream->sample_aspect_ratio = context->streams[video_stream_index]->codec->sample_aspect_ratio;
avformat_write_header(oc,NULL);
}
packet.stream_index = stream->id;
av_write_frame(oc,&packet);
cnt++;
}
av_free_packet(&packet);
av_init_packet(&packet);
}
av_read_pause(context);
av_write_trailer(oc);
avio_close(oc->pb);
avformat_free_context(oc);
return (EXIT_SUCCESS);
}
結果ファイルはこちら: http://dl.dropbox.com/u/1243577/test.avi
アドバイスをありがとう
これが私のやり方です。私が見つけたのは、H264を受信したときにストリームのフレームレートが正しくないことです。 1/90000タイムベースを送信します。着信ストリームからの新しいストリームの初期化をスキップし、特定のパラメーターをコピーします。 max_analyze_framesが正しく機能している場合、着信r_frame_rateは正確である必要があります。
#include <stdio.h>
#include <stdlib.h>
#include <libavcodec/avcodec.h>
#include <libavformat/avformat.h>
#include <libavformat/avio.h>
#include <sys/time.h>
time_t get_time()
{
struct timeval tv;
gettimeofday( &tv, NULL );
return tv.tv_sec;
}
int main( int argc, char* argv[] )
{
AVFormatContext *ifcx = NULL;
AVInputFormat *ifmt;
AVCodecContext *iccx;
AVCodec *icodec;
AVStream *ist;
int i_index;
time_t timenow, timestart;
int got_key_frame = 0;
AVFormatContext *ofcx;
AVOutputFormat *ofmt;
AVCodecContext *occx;
AVCodec *ocodec;
AVStream *ost;
int o_index;
AVPacket pkt;
int ix;
const char *sProg = argv[ 0 ];
const char *sFileInput;
const char *sFileOutput;
int bRunTime;
if ( argc != 4 ) {
printf( "Usage: %s url outfile runtime\n", sProg );
return EXIT_FAILURE;
}
sFileInput = argv[ 1 ];
sFileOutput = argv[ 2 ];
bRunTime = atoi( argv[ 3 ] );
// Initialize library
av_log_set_level( AV_LOG_DEBUG );
av_register_all();
avcodec_register_all();
avformat_network_init();
//
// Input
//
//open rtsp
if ( avformat_open_input( &ifcx, sFileInput, NULL, NULL) != 0 ) {
printf( "ERROR: Cannot open input file\n" );
return EXIT_FAILURE;
}
if ( avformat_find_stream_info( ifcx, NULL ) < 0 ) {
printf( "ERROR: Cannot find stream info\n" );
avformat_close_input( &ifcx );
return EXIT_FAILURE;
}
snprintf( ifcx->filename, sizeof( ifcx->filename ), "%s", sFileInput );
//search video stream
i_index = -1;
for ( ix = 0; ix < ifcx->nb_streams; ix++ ) {
iccx = ifcx->streams[ ix ]->codec;
if ( iccx->codec_type == AVMEDIA_TYPE_VIDEO ) {
ist = ifcx->streams[ ix ];
i_index = ix;
break;
}
}
if ( i_index < 0 ) {
printf( "ERROR: Cannot find input video stream\n" );
avformat_close_input( &ifcx );
return EXIT_FAILURE;
}
//
// Output
//
//open output file
ofmt = av_guess_format( NULL, sFileOutput, NULL );
ofcx = avformat_alloc_context();
ofcx->oformat = ofmt;
avio_open2( &ofcx->pb, sFileOutput, AVIO_FLAG_WRITE, NULL, NULL );
// Create output stream
//ost = avformat_new_stream( ofcx, (AVCodec *) iccx->codec );
ost = avformat_new_stream( ofcx, NULL );
avcodec_copy_context( ost->codec, iccx );
ost->sample_aspect_ratio.num = iccx->sample_aspect_ratio.num;
ost->sample_aspect_ratio.den = iccx->sample_aspect_ratio.den;
// Assume r_frame_rate is accurate
ost->r_frame_rate = ist->r_frame_rate;
ost->avg_frame_rate = ost->r_frame_rate;
ost->time_base = av_inv_q( ost->r_frame_rate );
ost->codec->time_base = ost->time_base;
avformat_write_header( ofcx, NULL );
snprintf( ofcx->filename, sizeof( ofcx->filename ), "%s", sFileOutput );
//start reading packets from stream and write them to file
av_dump_format( ifcx, 0, ifcx->filename, 0 );
av_dump_format( ofcx, 0, ofcx->filename, 1 );
timestart = timenow = get_time();
ix = 0;
//av_read_play(context);//play RTSP (Shouldn't need this since it defaults to playing on connect)
av_init_packet( &pkt );
while ( av_read_frame( ifcx, &pkt ) >= 0 && timenow - timestart <= bRunTime ) {
if ( pkt.stream_index == i_index ) { //packet is video
// Make sure we start on a key frame
if ( timestart == timenow && ! ( pkt.flags & AV_PKT_FLAG_KEY ) ) {
timestart = timenow = get_time();
continue;
}
got_key_frame = 1;
pkt.stream_index = ost->id;
pkt.pts = ix++;
pkt.dts = pkt.pts;
av_interleaved_write_frame( ofcx, &pkt );
}
av_free_packet( &pkt );
av_init_packet( &pkt );
timenow = get_time();
}
av_read_pause( ifcx );
av_write_trailer( ofcx );
avio_close( ofcx->pb );
avformat_free_context( ofcx );
avformat_network_deinit();
return EXIT_SUCCESS;
}
私はあなたがそのようなPTS値を単に増加させることになっているとは思いません。タイムベースが適切なまれなケースでは機能する可能性がありますが、一般的なケースでは機能しません。
これを変更する必要があります:
pkt.pts = ix++;
pkt.dts = pkt.pts;
これに:
pkt.pts = av_rescale_q(pkt.pts, ifcx->streams[0]->codec->time_base, ofcx->streams[0]->time_base);
pkt.dts = av_rescale_q(pkt.dts, ifcx->streams[0]->codec->time_base, ofcx->streams[0]->time_base);
これにより、パケットのPTS/DTSが、入力ストリームのコーデックで使用される単位から出力ストリームの単位に変換されます。
また、一部のストリームにはフレームごとに複数のティックがあるため、ビデオが2倍の速度で実行される場合は、上記の行のすぐ下にこれが必要になる場合があります。
pkt.pts *= ifcx->streams[0]->codec->ticks_per_frame;
pkt.dts *= ifcx->streams[0]->codec->ticks_per_frame;
現代のH.264エンコーダーでの私の経験では、ffmpegによって返される期間は「提案」に過ぎず、PTSに「ジッター」があることがわかりました。フレームレートまたは期間を決定する唯一の正確な方法は、PTS値を使用して自分で測定することです。
30fpsで実行されているH.264エンコーダーの場合、持続時間はalwaysとして3000/90000として報告されますが、測定された持続時間は通常+/- 1ですが、定期的にジャンプして3000 + 25 1フレームと3000-25が次のフレームになります。反対の偏差を持つ隣接フレームに気づき、合計時間を維持しながら2番目のフレームのPTSを調整することで、記録のためにこれを平滑化しています。
これにより、クロックドリフトを反映して、時々(計算された)継続時間が30001または2999のストリームが得られます。
29.97fpsストリームを記録するとき、av_read_frame()は常に3000の継続時間を返しますが、公称計算継続時間は3003(29.97に対して正しい)で、上記と同じジッターとドリフトです。
私の場合、タイミングをクリーンアップするためにステートマシンを構築しただけです。これが誰かを助けることを願っています。
最近同じことをしていた。送信されたカメラより2倍低いFPSでした。その理由は、AVstream-> codec-> ticks_per_frameフィールドにあり、2に設定されています。私のソースはプログレッシブで、インターリーブされている場合は、さらに2倍のFPSを与える2の要因の可能性があります。 90000 Hzは、RTSP経由で送信されるビデオストリームのデフォルトのタイムベースです。タイムベースはFPSとは解像度が異なります。たとえば、タイムベースが90000 Hzの場合、タイムスタンプ30000のフレームは1/3秒で表示されます。タイムベースは出力中にAVstream構造体に入れる必要がありますが、AVFormatContextは実際のFPS値を持つ必要があります。