chevron_left

メインカテゴリーを選択しなおす

cancel
研究開発 http://blog.livedoor.jp/tak_tak0/

シリコンバレーベンチャーみたいに深い科学技術を事業化したいです。

「深い技術」をやっています

TAK
フォロー
住所
文京区
出身
未設定
ブログ村参加

2007/08/27

arrow_drop_down
  • Generative Classifierの興味深い特性

    従来の画像認識は識別モデルだが、生成モデルが進展し生成モデルで高精度で認識することも現実的に可能となった。識別モデルがテキスチャを見て認識するのに対し、生成モデルによる認識は人と同様に形状を重視して識別し、人と間違え方が似ていることが示された。https://t.c

  • 最近の人気曲で歌詞の分析と比較

    近年の音楽業界では、曲の内容、傾向が以前と比較して変化が起きてると考えられてると思います。...これは、z世代の選好の質的な変化とか言うよりはむしろ、ストリーミングサービス普及によって、全体的な変化が生じてる、のでは...?J-pop歌詞の分析と比較 の時と同じよ

  • コンピュータービジョンで自動化する費用対効果が高いタスクは何か? AI Exposure

    RT人間の労働力の方が人工知能より安価~ MITの研究、雇用機会の大部分は人工知能にまだ奪われないと結論https://t.co/0ScCAUtu85— 森山和道/ライター、書評屋 (@kmoriyama) April 12, 2024 この研究はどの論文なのかと思ったんですが、どうもManagement Science誌に投

  • Proxyによる言語モデルチューニング

    LLMを特定目的にFine-tuningせずとも、より小さなLLMとそのFine?tuning版の出力の差分を、元のLLMの出力(logits)に加えることで同等の効果を得られるという話。おもろ? https://t.co/j89SqvPOc5— Shohei Hido 比戸将平 (@sla) January 19, 2024 Tuning Language Models

  • 言語モデルへのMany shot 倫理解除攻撃

    大量の質問をぶつけて最後の最後に問題のある質問をするとAIの倫理観が壊れるという脆弱性を突いた攻撃手法「メニーショット・ジェイルブレイキング」が発見されるhttps://t.co/BRV3Y72jdX— GIGAZINE(ギガジン) (@gigazine) April 3, 2024 大量の質問ではないですね。大

  • 消費者向けGPUで機能する高速大規模言語モデルPowerInferの実装

    これすごい。必要なところだけGPUにして残りはCPUで推論させて40Bモデルを4090(24G)で動作。llama.cppの11倍高速https://t.co/WXy3xeI424— shi3z (@shi3z) December 24, 2023 PowerInferは、Llama2に比べたらまだ早かったですが...また、出力があんまり良くないような気

arrow_drop_down

ブログリーダー」を活用して、TAKさんをフォローしませんか?

ハンドル名
TAKさん
ブログタイトル
研究開発
フォロー
研究開発

にほんブログ村 カテゴリー一覧

商用