ニューラルネットワークのトピックは初めてです。私は2つの用語畳み込みニューラルネットワークとリカレントニューラルネットワークに出会いました。
これらの2つの用語が同じものを指しているのか、そうでない場合、それらの違いは何でしょうか?
CNNとRNNの違いは次のとおりです。
CNNは固定サイズの入力を受け取り、固定サイズの出力を生成します。
CNNはフィードフォワード人工ニューラルネットワークの一種です-最小量の前処理を使用するように設計された多層パーセプトロンのバリエーションです。
CNNはそのニューロン間の接続パターンを使用し、動物の視覚皮質の組織に触発され、その個々のニューロンは視野をタイリングする重複領域に応答するように配置されます。
CNNは画像やビデオの処理に最適です。
RNNは、任意の入力/出力長を処理できます。
RNNはフィードフォワードニューラルネットワークとは異なり、内部メモリを使用して任意の入力シーケンスを処理できます。
リカレントニューラルネットワークは時系列情報を使用します。つまり、私が最後に話したことが、次に話すことに影響を与えます。
RNNは、テキストおよび音声分析に最適です。
畳み込みニューラルネットワーク(CNN)は、画像を認識するように設計されています。内部に畳み込みがあり、画像上で認識されたオブジェクトのエッジが表示されます。リカレントニューラルネットワーク(RNN)は、音声信号やテキストなどのシーケンスを認識するように設計されています。再帰ネットワークには内部にサイクルがあり、これはネット内に短いメモリが存在することを意味します。適切な機械学習アルゴリズムを選択するCNNとRNNを適用して、BCIのEEG信号を分類しました: http://rnd.azoft.com/classification-eeg-signals-brain-computer-interface/
明らかに私はここで少し遅れていますが、ニューラルネットに興味がある人は誰でも この記事 を指すようにしたいと思います。基本をかなりよく説明しているだけでなく、さらに深く掘り下げたい場合は、今日の最も一般的なニューラルネットアーキテクチャのすべてに対処しながら、元の論文も提供します。
ice.cubeは、それぞれの主な用途に関して非常によく回答しました
これらのアーキテクチャは完全に異なっているため、共通点はニューラルネットワークであるという事実だけであるため、「違いは何か」と言うのはかなり困難です。
畳み込みネットワーク は、畳み込みタスクを実行する重複する「受信フィールド」を持つネットワークです。
リカレントネットワーク は、cyclesを形成するリカレント接続(「通常の」信号フローの反対方向に進む)を持つネットワークです。ネットワークのトポロジー。
他のものとは別に、CNNでは、通常、軸に沿って2乗の2乗スライディングウィンドウを使用し、パターンを識別するために(元の入力2次元画像とともに)畳み込みます。
RNNでは、以前に計算されたメモリを使用します。興味があるなら、特別な種類のRNNであるLSTM(Long Short-Term Memory)を見ることができます。
CNNとRNNの両方に共通する点が1つあります。パターンとシーケンスを検出するためです。つまり、単一の入力データビットをシャッフルすることはできません。
まず、再帰NNは再帰NNとは異なることを知る必要があります。ウィキの定義により、
再帰的ニューラルネットワーク(RNN)は、構造体に同じ重みのセットを再帰的に適用することで作成される一種のディープニューラルネットワークです。
この意味で、CNNは再帰NNの一種です。一方、再帰NNは、時間差に基づく再帰NNの一種です。したがって、私の意見では、CNNと再帰NNは異なりますが、どちらも再帰NNから派生しています。
コンピュータービジョン用の畳み込みニューラルネットワーク(CNN)、および自然言語処理用のリカレントニューラルネットワーク(RNN)。
これは他の領域にも適用できますが、RNNには、ネットワークにループを導入することにより、両方向に信号を送信できるネットワークの利点があります。
フィードバックネットワークは強力であり、非常に複雑になる可能性があります。前の入力から導出された計算はネットワークにフィードバックされ、一種のメモリを提供します。フィードバックネットワークは動的です。状態は、平衡点に達するまで連続的に変化します。