Ffmpegを使用してH.264ワイヤレスIPカメラから静止画像をキャプチャしようとしています。私はここで同様の質問を見つけました: ffmpegを使用してH264ビデオファイルから高品質のJPEG画像を抽出するにはどうすればよいですか?
ffmpeg -y -i rtsp://10.2.69.201:554/ch0_0.h264 -r 10 -f image2 /var/www/camera.jpg
その例に示すように実装しました。ここで取得している画像のサンプルを確認できます。
基本的に問題は、画像の下部が常にブロック状になることです。空がより詳細で雲が多い場合、画像の下半分全体がブロック状またはぼやけている可能性があります。
カメラのストリームオプションが制限されています。その1つはIフレーム間隔ですが、25〜100の間で変更できます。
誰でも私がより良いイメージを得る方法についていくつかの提案がありますか?ストリームを実際にビデオファイルに保存し、2分ごとに静止画を抽出することができてもかまいません。それは簡単にできることですか?
Ffmpegの出力は次のとおりです。
ffmpeg version 1.2.4 Copyright (c) 2000-2013 the FFmpeg developers
built on Oct 3 2013 07:36:02 with gcc 4.8 (Debian 4.8.1-10)
configuration: --prefix=/usr --extra-cflags='-g -O2 -fstack-protector --param=ssp-buffer-size=4 -Wformat -Werror=format-security ' --extra-ldflags='-Wl,-z,relro' --cc='ccache cc' --enable-shared --enable-libmp3lame --enable-gpl --enable-nonfree --enable-libvorbis --enable-pthreads --enable-libfaac --enable-libxvid --enable-postproc --enable-x11grab --enable-libgsm --enable-libtheora --enable-libopencore-amrnb --enable-libopencore-amrwb --enable-libx264 --enable-libspeex --enable-nonfree --disable-stripping --enable-libvpx --enable-libschroedinger --disable-encoder=libschroedinger --enable-version3 --enable-libopenjpeg --enable-librtmp --enable-avfilter --enable-libfreetype --enable-libvo-aacenc --disable-decoder=amrnb --enable-libvo-amrwbenc --enable-libaacplus --libdir=/usr/lib/i386-linux-gnu --disable-vda --enable-libbluray --enable-libcdio --enable-gnutls --enable-frei0r --enable-openssl --enable-libass --enable-libopus --enable-fontconfig --enable-libpulse --disable-mips32r2 --disable-mipsdspr1 --disab libavutil 52. 18.100 / 52. 18.100
libavcodec 54. 92.100 / 54. 92.100
libavformat 54. 63.104 / 54. 63.104
libavdevice 54. 3.103 / 54. 3.103
libavfilter 3. 42.103 / 3. 42.103
libswscale 2. 2.100 / 2. 2.100
libswresample 0. 17.102 / 0. 17.102
libpostproc 52. 2.100 / 52. 2.100
[h264 @ 0x867ed80] RTP: missed 1 packets
Last message repeated 1 times
[h264 @ 0x867ed80] mb_type 34 in I slice too large at 17 18
[h264 @ 0x867ed80] error while decoding MB 17 18
[h264 @ 0x867ed80] concealing 5732 DC, 5732 AC, 5732 MV errors in I frame
[h264 @ 0x867ed80] RTP: missed 1 packets
Last message repeated 14 times
[rtsp @ 0x867c640] Stream #1: not enough frames to estimate rate; consider increasing probesize
[rtsp @ 0x867c640] Estimating duration from bitrate, this may be inaccurate
Guessed Channel Layout for Input Stream #0.1 : mono
Input #0, rtsp, from 'rtsp://10.2.69.201:554/ch0_0.h264':
Metadata:
title : H.264 Program Stream, streamed by the LIVE555 Media Server
comment : ch0_0.h264
Duration: N/A, start: 0.065833, bitrate: 64 kb/s
Stream #0:0: Video: h264 (Constrained Baseline), yuv420p, 1600x1200, 15.19 tbr, 90k tbn, 180k tbc
Stream #0:1: Audio: pcm_alaw, 8000 Hz, mono, s16, 64 kb/s
Output #0, image2, to '/var/www/camera.jpg':
Metadata:
title : H.264 Program Stream, streamed by the LIVE555 Media Server
comment : ch0_0.h264
encoder : Lavf54.63.104
Stream #0:0: Video: mjpeg, yuvj420p, 1600x1200, q=2-31, 200 kb/s, 90k tbn, 10 tbc
Stream mapping:
Stream #0:0 -> #0:0 (h264 -> mjpeg)
Press [q] to stop, [?] for help
[h264 @ 0x8793260] mb_type 34 in I slice too large at 17 18
[h264 @ 0x8793260] error while decoding MB 17 18
[h264 @ 0x8793260] concealing 5732 DC, 5732 AC, 5732 MV errors in I frame
[image2 @ 0x86d1640] Could not get frame filename number 2 from pattern '/var/www/camera.jpg' (either set updatefirst or use a pattern like %03d within the filename pattern)
av_interleaved_write_frame(): Invalid argument
出力が示唆するように、問題は、RTPパケットがないため、ビデオの重要な部分がないことです。コマンドを使用すると、ffmpegは、最初のフレームの終わり–しかし、一部のデータが欠落していたため、マクロブロック内のエラーを隠そうとしますが、すでにデコードされた画像の一部をコピーすることによってのみこれを行うことができます。
FFmpeg Wikiの例は x秒ごとにサムネイルを作成する方法 :
ffmpeg -i rtsp://10.2.69.201:554/ch0_0.h264 -f image2 -vf fps=fps=1/120 img%03d.jpg
もちろん、ストリームをファイルに保存することもできます。この場合、120秒後に停止します。
ffmpeg -i rtsp://10.2.69.201:554/ch0_0.h264 -c:v copy -t 120 stream.mp4
可能であれば、 最近の静的ビルドをダウンロードまたはコンパイル してみてください。ffmpegは少し古いため、すでに修正されているバグに遭遇したことがないかどうかはわかりません。
RTP: missed 1 packets
メッセージは、ストリームから欠落しているデータがあることの手がかりです。
追加してみてください-rtsp_transport tcp
前 -y
オプションを使用するTCP UDPの代わりに。
こんにちは、先ほどIPカメラからのRTSPストリームに同じ問題がありました。 2012年11月21日20:41:28にgcc 4.4.6(GCC)20120305でビルドされたffmpegバージョン1.0
下のぼやけた部分であなたと同じサムネイル結果が得られました。
私が使用したコマンドは:
ffmpeg -i {RTSP_SOURCE} -ss 00:00:01 -f image2 -vframes 1 thumb.jpg
私の問題は、-ssパラメーターのミリ秒の部分を追加したときに解決されました。
ffmpeg -i {RTSP_SOURCE} -ss 00:00:01.500 -f image2 -vframes 1 thumb.jpg
私は公式のFFMPEGドキュメントの例でそれを見つけました、そしてそれは私の場合にはうまくいきました。
https://trac.ffmpeg.org/wiki/Create%20a%20thumbnail%20image%20every%20X%20seconds%20of%20the%20video