私は次の問題について助けてくれて本当に感謝しています。
カメラ付きのガジェットを使用し、H264圧縮ビデオフレームを作成しています。これらのフレームはアプリケーションに送信されています。これらのフレームはコンテナ内ではなく、生データのみです。
Ffmpeg関数とlibav関数を使用して、後で使用できるビデオファイルを作成します。
フレームをデコードしてからエンコードすると、すべてが正常に機能し、有効なビデオファイルが取得されます。 (デコード/エンコードの手順は通常のlibavコマンドであり、ここでは何も凝っていません。全能のインターネットから取得しました。非常に堅牢です)...ただし、デコードとエンコードに多くの時間を費やしているので、このステップをスキップして、フレームを出力ストリームに直接配置します。今、問題が来ます。
エンコードを生成するために思いついたコードは次のとおりです。
AVFrame* picture;
avpicture_fill((AVPicture*) picture, (uint8_t*)frameData,
codecContext->pix_fmt, codecContext->width,
codecContext->height);
int outSize = avcodec_encode_video(codecContext, videoOutBuf,
sizeof(videoOutBuf), picture);
if (outSize > 0)
{
AVPacket packet;
av_init_packet(&packet);
packet.pts = av_rescale_q(codecContext->coded_frame->pts,
codecContext->time_base, videoStream->time_base);
if (codecContext->coded_frame->key_frame)
{
packet.flags |= PKT_FLAG_KEY;
}
packet.stream_index = videoStream->index;
packet.data = videoOutBuf;
packet.size = outSize;
av_interleaved_write_frame(context, &packet);
put_flush_packet(context->pb);
}
変数は次のとおりです。
frameData
は、カメラから送信されたデコード済みフレームデータです。前のステップでデコードされ、videoOutBuf
はデータを保持するためのプレーンなuint8_tバッファーです
フレームをデコードしないようにアプリケーションを変更しましたが、単に次のようにデータを通過させます。
AVPacket packet;
av_init_packet(&packet);
packet.stream_index = videoStream->index;
packet.data = (uint8_t*)frameData;
packet.size = currentFrameSize;
av_interleaved_write_frame(context, &packet);
put_flush_packet(context->pb);
どこ
frameData
は生のH264フレームで、currentFrameSize
は生のH264フレームのサイズです。フレームごとにガジェットから取得するバイト数。
そして、突然アプリケーションが正しく動作しなくなり、制作されたビデオは再生できなくなります。パケットに正しいPTSを設定していないため、これは明らかです。私がしたことは次のことでした(私は必死です、あなたはこのアプローチからそれを見ることができます:))
packet.pts = timestamps[timestamp_counter ++];
ここで、timestamps
は、実際に上記の作業コードによって生成され、ファイルに書き込まれたPTSのリストです(はい、正しく読みます。10分間のセッションですべてのPTSを記録し、それらを使用したかったです) 。
アプリケーションはまだ動作しません。
さて、ここで私は何をすべきか全く手がかりがないので、ここに質問があります:
Libav関数を使用して「mpegts」ビデオストリームを作成し、既にエンコードされたビデオフレームをストリームに挿入し、それを使用してビデオファイルを作成したいと思います。どうすればいいのですか?
ありがとう。
以下を設定すると、ビデオの再生が表示されると思います。
packet.flags |= AV_PKT_FLAG_KEY;
packet.pts = packet.dts = 0;
実際には、h264パケットヘッダーに従ってpacket.flagsを設定する必要があります。 この仲間のスタックオーバーフロー ストリームから直接抽出する提案を試してみてください。
オーディオも追加する場合、pts/dtsがより重要になります。勉強することをお勧めします このチュートリアル
[〜#〜] edit [〜#〜]
テストアプリから何が機能しているかを抽出する時間を見つけました。何らかの理由で、dts/ptsの値がゼロの場合は機能しますが、0またはAV_NOPTS_VALUE以外の値は機能しません。 ffmpegの異なるバージョンがあるのだろうか。最新のgit://git.videolan.org/ffmpeg.gitがあります。
fftest.cpp
#include <string>
#ifndef INT64_C
#define INT64_C(c) (c ## LL)
#define UINT64_C(c) (c ## ULL)
#endif
//#define _M
#define _M printf( "%s(%d) : MARKER\n", __FILE__, __LINE__ )
extern "C"
{
#include "libavcodec/avcodec.h"
#include "libavformat/avformat.h"
};
AVFormatContext *fc = 0;
int vi = -1, waitkey = 1;
// < 0 = error
// 0 = I-Frame
// 1 = P-Frame
// 2 = B-Frame
// 3 = S-Frame
int getVopType( const void *p, int len )
{
if ( !p || 6 >= len )
return -1;
unsigned char *b = (unsigned char*)p;
// Verify NAL marker
if ( b[ 0 ] || b[ 1 ] || 0x01 != b[ 2 ] )
{ b++;
if ( b[ 0 ] || b[ 1 ] || 0x01 != b[ 2 ] )
return -1;
} // end if
b += 3;
// Verify VOP id
if ( 0xb6 == *b )
{ b++;
return ( *b & 0xc0 ) >> 6;
} // end if
switch( *b )
{ case 0x65 : return 0;
case 0x61 : return 1;
case 0x01 : return 2;
} // end switch
return -1;
}
void write_frame( const void* p, int len )
{
if ( 0 > vi )
return;
AVStream *pst = fc->streams[ vi ];
// Init packet
AVPacket pkt;
av_init_packet( &pkt );
pkt.flags |= ( 0 >= getVopType( p, len ) ) ? AV_PKT_FLAG_KEY : 0;
pkt.stream_index = pst->index;
pkt.data = (uint8_t*)p;
pkt.size = len;
// Wait for key frame
if ( waitkey )
if ( 0 == ( pkt.flags & AV_PKT_FLAG_KEY ) )
return;
else
waitkey = 0;
pkt.dts = AV_NOPTS_VALUE;
pkt.pts = AV_NOPTS_VALUE;
// av_write_frame( fc, &pkt );
av_interleaved_write_frame( fc, &pkt );
}
void destroy()
{
waitkey = 1;
vi = -1;
if ( !fc )
return;
_M; av_write_trailer( fc );
if ( fc->oformat && !( fc->oformat->flags & AVFMT_NOFILE ) && fc->pb )
avio_close( fc->pb );
// Free the stream
_M; av_free( fc );
fc = 0;
_M;
}
int get_nal_type( void *p, int len )
{
if ( !p || 5 >= len )
return -1;
unsigned char *b = (unsigned char*)p;
// Verify NAL marker
if ( b[ 0 ] || b[ 1 ] || 0x01 != b[ 2 ] )
{ b++;
if ( b[ 0 ] || b[ 1 ] || 0x01 != b[ 2 ] )
return -1;
} // end if
b += 3;
return *b;
}
int create( void *p, int len )
{
if ( 0x67 != get_nal_type( p, len ) )
return -1;
destroy();
const char *file = "test.avi";
CodecID codec_id = CODEC_ID_H264;
// CodecID codec_id = CODEC_ID_MPEG4;
int br = 1000000;
int w = 480;
int h = 354;
int fps = 15;
// Create container
_M; AVOutputFormat *of = av_guess_format( 0, file, 0 );
fc = avformat_alloc_context();
fc->oformat = of;
strcpy( fc->filename, file );
// Add video stream
_M; AVStream *pst = av_new_stream( fc, 0 );
vi = pst->index;
AVCodecContext *pcc = pst->codec;
_M; avcodec_get_context_defaults2( pcc, AVMEDIA_TYPE_VIDEO );
pcc->codec_type = AVMEDIA_TYPE_VIDEO;
pcc->codec_id = codec_id;
pcc->bit_rate = br;
pcc->width = w;
pcc->height = h;
pcc->time_base.num = 1;
pcc->time_base.den = fps;
// Init container
_M; av_set_parameters( fc, 0 );
if ( !( fc->oformat->flags & AVFMT_NOFILE ) )
avio_open( &fc->pb, fc->filename, URL_WRONLY );
_M; av_write_header( fc );
_M; return 1;
}
int main( int argc, char** argv )
{
int f = 0, sz = 0;
char fname[ 256 ] = { 0 };
char buf[ 128 * 1024 ];
av_log_set_level( AV_LOG_ERROR );
av_register_all();
do
{
// Raw frames in v0.raw, v1.raw, v2.raw, ...
// sprintf( fname, "rawvideo/v%lu.raw", f++ );
sprintf( fname, "frames/frame%lu.bin", f++ );
printf( "%s\n", fname );
FILE *fd = fopen( fname, "rb" );
if ( !fd )
sz = 0;
else
{
sz = fread( buf, 1, sizeof( buf ) - FF_INPUT_BUFFER_PADDING_SIZE, fd );
if ( 0 < sz )
{
memset( &buf[ sz ], 0, FF_INPUT_BUFFER_PADDING_SIZE );
if ( !fc )
create( buf, sz );
if ( fc )
write_frame( buf, sz );
} // end if
fclose( fd );
} // end else
} while ( 0 < sz );
destroy();
}