APIドキュメント では、「修正された線形を計算する」と書かれています。
それはRe(ctified)L(inear)... Uとは何ですか?
Re(ctified)L(inear)(U)nit
通常、ニューラルネットワークのレイヤーには、いくつかの入力(ベクトルなど)があり、それを重み行列で乗算して、結果として再びベクトルになります。
結果の各値(通常はfloat)は出力と見なされます。ただし、現在のニューラルネットワークのほとんどの層には非線形性が含まれているため、これらの出力値に複雑さを追加するアドオン関数があります。長い間、これらはシグモイドとタンでした。
しかし、最近では、入力が負の場合は0、入力が0または正の場合は入力自体になる関数を使用しています。この特定のアドオン機能(またはより優れた「アクティベーション機能」)は、reluと呼ばれます。