ReLUの判定を0または1の成分を持つ対角行列にまとめるなら、ReLU層はDWxであり、ここでWは重み行列、xは入力です。
では次に、Wₙ₊₁Dₙとは何でしょうか。ここでWₙ₊₁は次の層の重みの行列です。
これは、線形写像(有効行列)への(局所性に敏感な)ハッシュテーブル参照として見なすことができます。また、Dₙをキーとする連想記憶そのものとして見ることもできます。
ここで議論があります:
https://discourse.numenta.org/t/gated-linear-associative-memory/12300
ただし、見解はまだ十分に統合されておらず、表記法にも問題があります。
それでも、概念自体はとても単純で、議論の状態がまだ予備的であるにもかかわらず、人々が難なく追いかけられることを期待できるでしょう。
[リンク] [コメント]




