chevron_left

メインカテゴリーを選択しなおす

cancel
研究開発 http://blog.livedoor.jp/tak_tak0/

シリコンバレーベンチャーみたいに深い科学技術を事業化したいです。

「深い技術」をやっています

TAK
フォロー
住所
文京区
出身
未設定
ブログ村参加

2007/08/27

arrow_drop_down
  • 選択的状態空間を使用した線形時間系列モデリングSSM

    MambaはS4に入力を選択的に記憶/忘却をできるよう重み、間隔幅を入力に応じて変える仕組み(S6)を導入。高速メモリ内で内部状態を展開し、Parallel Scanを利用。SSMは性能がTransformerに匹敵しつつあり効率的なため今後多くの問題でTransformerに置き換わる可能性が高い ht

  • ニューラルネットワークの学習可能性境界はフラクタル

    NNの学習はハイパーパラメータを座標軸、学習結果を色とした時、美しいフラクタル構造を作る。これは従来のフラクタル生成手法と同様、学習結果は同じ関数を反復適用した結果得られるためである。カオス的であり、勾配降下法によるメタ学習が難しい事も視覚化出来ている http

  • 自力で学習データを作成するSelf-Rewarding Language Models

    AIが自分自身に報酬を与えて進化する「自己報酬型言語モデル」 米Metaなどが開発、実験でGPT-4を上回る https://t.co/OFeAjRPF17 自分で問題作り自分で回答し自分で評価しその結果を学習データに使用。これを反復し訓練し続けると反復毎に精度が向上。3回目でGemini Pro,GPT

  • 大規模言語モデルを使用して自動運転を再考する

    LLMx自動運転でこちらの研究面白かった。汎用人工知能AGIの研究にも取り組むShanghai AI Labからの論文。既存のLLMと理想の完全自動運転AIの差異をreasoning、interpretation、memorizationの3つに絞って議論。オープンソースと簡易デモも出していて、LLMx自動運転の思想が見

  • 大規模言語モデルのための知識編集の包括的研究

    LLMの知識を狙い撃ちして変更・修正する「知識編集(Knowledge Editing)」https://t.co/cFSRUEgC1gモデル全体を再学習させずに効率よくチューニングするアプローチです。本記事では、知識編集の概要と、各手法の評価結果などを紹介しています。— AIDB (@ai_database) Janua

  • 敵対的機械学習:攻撃と緩和策の分類と用語

    『敵はAIシステムを意図的に操作し、それらを機能不全に陥らせることができる。そして完璧な防御策は存在しない。』アメリカ国立標準技術研究所(NIST) が、AIや機械学習(ML)の脆弱性とその軽減アプローチに関する報告書を発表。https://t.co/chRf6rglPJ https://t.co/aBX

arrow_drop_down

ブログリーダー」を活用して、TAKさんをフォローしませんか?

ハンドル名
TAKさん
ブログタイトル
研究開発
フォロー
研究開発

にほんブログ村 カテゴリー一覧

商用