私は、ビデオストリーミングの問題の解決策を探して、stackoverflowやWebでしばらく探していました。カメラからキャプチャされたライブビデオ(高品質は不要)をiOSデバイスからリモートPCに1つの方法でストリーミングする必要があります。つまり、iOSデバイスはサーバー/ PCにビデオストリームを送信しますが、その逆は行いません。 。
グーグルやドキュメントの閲覧後に表示されるのは、使用できる主な標準/プロトコルが2つあるということです。
繰り返しますが、私の要件は、iPhone/iPadがビデオをストリーミングすることです。 AppleのWebサイトに表示されるものから、サーバー側のエンコードの観点とiOS側のデコードの観点からHLSが使用されることを理解しています。 RTMPの時点で、iOSストリーミングを許可するほとんどのライブラリは、商用ライセンスとクローズドコードを持っているか、P2Pインフラストラクチャを通過する必要があります(たとえば angl.tv または tokbox.com/opentok/quick -start )。 HLSの時点では、iOS側にエンコーディングライブラリは存在しないようです。
だから私の質問は:
親愛なる友人の皆さん、よろしくお願いします。
メディ。
私はそのようなライブラリを開発しました、そしてあなたはそれを見つけることができます github.com/jgh-/VideoCore
Camera/Mic RTMPセッションを簡単にセットアップできる簡素化されたiOS APIを作成したため、この回答を更新しています。 https://github.com/jgh-/VideoCore/blob/master/api/iOS/VCSimpleSession.h で見つけることができます。
さらに、VideoCoreがCocoaPodsで利用可能になりました。