2021年7月
Pre-Trained Models: Past, Present and Future #1
2021/6/15 に公開されたTransformerに関するサーベイ論文の意訳です。 今回はAbstract、introductionです。 Abstract BERT や GPT などの大規模な学習済みモデル(PTM)は、近年大きな成功を収めており、人工知能(AI) 分野におけるマイルストーンとなっています。大規模な事前学習モデル(PTM)は、BERTやGPTのように、近年、人工知能(AI)の分野で大きな成功を収めています。洗練された事前学習の目的と巨大なモデルパラメータにより、大規模なPTMは、大量のラベル付きおよびラベルなしのデータから知識を効果的に取り込むことができます。 巨大なパラ…
NLP Vision note.com Attention toaruol.hatenablog.jp
【論文】"Attention is all you need"の解説 Attention is all you need https://arxiv.org/pdf/1706.03762.pdf Neural Machine Translation by Jointly Learning to Align and Translate https://arxiv.org/pdf/1409.0473.pdf
2021年7月
「ブログリーダー」を活用して、ykt_345さんをフォローしませんか?
指定した記事をブログ村の中で非表示にしたり、削除したりできます。非表示の場合は、再度表示に戻せます。
画像が取得されていないときは、ブログ側にOGP(メタタグ)の設置が必要になる場合があります。