chevron_left

メインカテゴリーを選択しなおす

cancel
arrow_drop_down
  • Transformers Trainerを使ってみて分かりにくかった仕様など

    まえがき 言語モデルを自分でガッツリ使う経験が今まで無かったので、勉強がてら先週火曜日まで開催されていたKaggle - LLM Science Exam というコンペに参加してました。 www.kaggle.com そこそこ頑張った結果、過去最高の成績(49th/2663, Top2%)を取ることができ、銀メダルを取ることができた。SolutionなどはKaggleの方に書いたのでそちらを。 www.kaggle.com で、この記事で触れるのは、今まで機械学習モデルのトレーニングにはPyTorchの標準的なやり方(ループ内で推論してloss計算してloss.backward()で逆伝播させ…

arrow_drop_down

ブログリーダー」を活用して、hashiccoさんをフォローしませんか?

ハンドル名
hashiccoさん
ブログタイトル
端の知識の備忘録
フォロー
端の知識の備忘録

にほんブログ村 カテゴリー一覧

商用