カメラからのライブビデオストリームを再生するiOSアプリを作成する必要があります。 iPhoneはライブHTTPストリームしかサポートしていないことは知っていますが、残念ながら6〜10秒の遅延があり、これは私のニーズからはほど遠いです。リアルタイムのビューが必要です。 MJPEGストリームも大量のトラフィックを生成するため、オプションではありません。残っているのはRTMPストリームですが、iOSはネイティブに再生できません:((iPhone用のrtmpdumpについて聞いたことがありますが、動作させることができませんでした。iOSでRTMPビデオを再生することに成功した人はいますか?それは大歓迎です!
Mediastreamsegmenterをわずかに低いレイテンシ(おそらく3秒程度)に設定できると確信しています。
他のソリューションには、RTP-over-HTTPおよび少なくともMPEG-2ビデオと同等の圧縮効率を処理できる高度なトランスポート、デマルチプレクサ、およびビデオコーデックが必要です。それらのものを無料で手に入れるのは難しいです(私はGPLが邪魔なものしか知りません)。
そして、それらでさえ、私が知る限り、少なくとも1秒の待ち時間があります。
最も近いのはiPhoneRTMPライブラリです: http://www.aftek.com/afteklab/aftek-iphone-RTMP-library.shtml しかし、まだビデオ公開をサポートしていません。
IOSでのストリーミングにrtmpdumpを正常に使用しました。コードはそれを提供しないので、オーディオ/ビデオメッセージデコードを実装する必要があります。また、AMF3は完全には実装されていないため、これにも対処する必要があります。ほとんどの場合、それはrtmp.cファイルだけです。 handleInvokeメソッドとhandleCtrlメソッドは、パケットを処理するメソッド(パケットを忘れた)とともに、アクションが存在する場所です。