WebRTCに頭を悩ませようとしています。 Webブラウザを介してライブオーディオをキャプチャしてストリーミングできる必要があります。
理解できる、または最新のコード例を見つけるのに苦労しています。 HTML5/WebRTCを使用して、同じブラウザーでオーディオを最初にキャプチャして再生するのを誰かが手伝ってくれるとしたら、それは私が始めて、途中で役立つと思います。
注:これをChrome(またはChrome Canary!)で機能させることだけに関心があります。
助けてくれてありがとう!
WebRTCに関するHTML5 Rocksの記事 は、素人の言葉ですべてを説明するおそらく最高の紹介記事です。
ローカルビデオ/オーディオを単にキャプチャするために、MediaStream API(つまり、getUserMedia)に焦点を当てることができます。それが機能するようになったら、RTCPeerConnectionAPIの調査を開始する必要があります。
RTCPeerConnection APIのクライアント側コードは非常に単純ですが、シグナリング(つまり、ピアツーピア接続の確立)に必要なサーバー側コードは扱いにくい場合があります。
自分のサーバー側ソリューションをPHPでコーディングすることになりましたが、そうするために、壁に頭をぶつけて(つまり、 WebSocket仕様 を解読しようとして)約3週間かかりました正しく機能します。実際のコードを見たい場合は、作業コードの一部を投稿できます。
課題に直面している場合は、サーバーサイドスクリプトを自分でコーディングすることをお勧めしますが、そうでない場合は、Socket.IOなどのWebSocketライブラリを調べます。
WebRTCライブオーディオストリーミング/ブロードキャストについて話している場合、ピアツーピアコールだけでなく、WebRTCはブロードキャスト用に設計されていません。ここをチェック WebRTC-スケーラブルなライブストリームブロードキャスト/マルチキャスト