kntty.hateblo.jp

ここに何か書く。

深層学習

Retentive Networkについてのメモ

Microsoft Researchから、Retentive Network が提案された(2023年7月)。 興味深いので、その意義についてざっくり理解したことを、つらつらとメモしておく。 (諸々正確でない点は、ご容赦いただきたい。) [1] Yutao Sun et al., Retentive Network: A Succ…

tf.Kerasの事前学習済みモデルに、正則化を加える正しい方法

TensorFlow(2系)の、 tf.keras.applicationsの学習済みモデルに、L2等の正規化を加える方法。 次の記事[1]で解決した。簡単にその要約を記す。 [1] Silva TS. How to Add Regularization to Keras Pre-trained Models the Right Way. 2019. sthalles.github.…

Transformerを理解するまでに私が陥った、3つの勘違い

自然言語処理でお馴染み、他の分野も席巻しつつあるTransformerについて、 やっと自分の理解が追いついてきた。 Transformerとは何か、については、良い記事がたくさんあるのでそちらを参照されたい。 念のため、最小限の説明をすると、次のような感じ。 入…

Attentionと、全結合・畳み込みとの関係

Transformerに使われるAttentionと、FFN(Position-wise Dense)、全結合(Dense)、畳み込み(Convolution)の 関係を俯瞰するために、お絵描きを試みたので、ここに載せる。 もしかしたら不正確な表現があるかもしれないが、ご容赦いただきたい。 なお、図…

<s>Transformerを理解するために、早く知っておきたかったこと(メモ)</s>

2021.7.16 書き直しました。新しい記事の方を参照ください。