1. ホーム
  2. tensorflow

[解決済み] tf.nn.reluの "relu "とは何の略ですか?

2022-02-15 20:57:39

質問事項

その中で APIドキュメント とあり、整流された線形を計算するとあります。

Re(ctified) L(inear)ですか・・・では、Uは何ですか?

解き方は?

リチウムイオン電池(U)ニット

通常、ニューラルネットワークの層は、ある入力、例えばベクトルを持ち、それに重み行列を掛け、結果として、すなわち再びベクトルを持つ。

そして、結果の各値(通常は浮動小数点)が出力とみなされる。しかし、最近のニューラルネットワークのほとんどの層は非線形性を含んでいるため、これらの出力値に複雑さを加えるアドオン関数と言えるかもしれません。長い間、シグモイドやタンがこれにあたります。

しかし、最近では、入力が負の場合は0になり、入力が0または正の場合は入力そのものになる関数が使われるようになりました。この特定の付加関数(あるいは活性化関数)をリル(relu)と呼びます。