chevron_left

メインカテゴリーを選択しなおす

cancel
研究開発 http://blog.livedoor.jp/tak_tak0/

シリコンバレーベンチャーみたいに深い科学技術を事業化したいです。

「深い技術」をやっています

TAK
フォロー
住所
文京区
出身
未設定
ブログ村参加

2007/08/27

arrow_drop_down
  • トレーニング不要のループ可能な音楽生成LoopGen

    ``LoopGen: Training-Free Loopable Music Generation,'' Davide Marincione, Giorgio Strano, Donato Crisostomi, Roberto Ribuoli, Emanuele Rodol\`a, https://t.co/ubSqbr3KjX— arXiv Sound (@ArxivSound) April 9, 2025 実装も確認しましたが、ちゃんとループしな

  • MIDI ChromaとPix2Pixを使用したGANベースの音楽スタイル転送

    これは何か研究成果かと思っていたのですが...どうもそうではなかったようです。このプロジェクトでは、敵対的生成ネットワーク(GAN)、特にpix2pixモデルを用いて音楽スタイルの転送を探求します。目標は、楽曲の和声構造を維持しながら、音楽のテクスチャを変更します。

  • クラウドソーシングでタスク作業完了率に影響与える因子

    クラウドソーシングで人気の仕事の分析の時と同じ分析ですが内容に変化あるでしょうか?かなり変化していると思います。今回は特にタスク作業の完了率を上げたいのでにタスクに限定して分析しました。どんな事を書けば正の影響を与えるのでしょうか?掲載日が 2025

  • Dense Retrieverの崩壊 事実証拠よりバイアスが優勢

    RAGの中核を担うEmbeddingですが、実はベクトル化するテキストの特徴によっては、性能は大きく下がってしまうことがあります。今回はそんな、Embeddingの性能を引き出せない文章の特徴をまとめた論文を紹介します。https://t.co/vO5trGCFQS #zenn— Hidetoshi Sudoh (@sasa_k

  • コード生成言語モデルによるパッケージHallucinationの包括的分析

    AI生成のコードには架空のパッケージが含まれることがよく起こる。あらかじめ同じ名称のマルウェアを仕込んだパッケージを用意する攻撃。ブログなどまで用意。それをグーグルAIが推薦している。「スロップスクワッティングを支えるAIエコシステムの危険性」https://t.co/1TLZ

  • 最近の人気曲で歌詞の影響分析2025

    2016年のデータと同じ方法ですが、データは2025年までを含めました。しかしランダムサンプリングで曲数が470ぐらいだったので足りないかもしれません。動画日付は 2008/04 ~ 2025/04 だったからカバー出来てるはずです。動画公開日と、再生回数の相関係数は 0.014

  • Agent Development Kit(ADK)の実装方法

    google-adkを試しましたが、しかしこれでエージェントと言えるのでしょうか?エージェントと言うからには、外部ソフトウェアを実行してみせるとか、web検索結果から返答してみせるぐらいの事をして欲しいですが...チュートリアルのやり方に従うと良いのですが...何か、現

  • 大規模言語モデルを用いた会話の脱線についてのゼロショット予測

    ?新作論文????大規模言語モデルは、訓練なしで会話の脱線(個人攻撃など)を予測できる???ゼロショット性能を検証し、プロンプトの工夫が予測タイミングにどう影響するかを調査??意外な発見も??Zero-Shot Prediction of Conversational Derailment With LLMshttps://t.co/H

  • 感情プロンプト LLM変化の火種

    ChatGPTの正確性を押し下げるプロンプトが判明、なぜ感情的なプロンプトは生成AIに御法度なのか?《小林 啓倫》https://t.co/A42OnugXNP【生成AI事件簿】ネガティブ、ポジティブ、ニュートラルのそれぞれのプロンプトをChatGPTに投げかけた結果… pic.twitter.com/DAKS2BuiGi

  • GPTモデルにおける類推推論堅牢性の評価

    人間とAIの「思考」に大きな違いがあることが研究で判明、AIは推論が苦手な可能性https://t.co/Y5FnxAEA4r— GIGAZINE(ギガジン) (@gigazine) April 2, 2025 タイトルから明らかですが、GPTシリーズでしか実験してないでしょうか...? 他の言語モデルで同じような結果は再

  • yinyang の実装 学習方法

    本研究では長期的な構造と制御性を備えたモチーフを開発するためのトランスフォーマーベースのフレームワークである Yin-Yang を提案します。メロディーとリズムの変換を使用したフレーズの破損と改良のトレーニング戦略を採用し、モチーフのバリエーションを生成します。

  • 長期的構造と制御性を備えたモチーフ発展 Yin Yang

    Thrilled to share that our paper "Yin-Yang: Developing Motifs With Long-Term Structure And Controllability" is accepted for a long presentation at EvoMUSART 2025 in Trieste this April! ?????? https://t.co/PKDMRRAFKq— Keshav Bhandari (@bhandari10k) Janua

  • 対数尤度ベクトルによる 1000以上の言語モデルマッピング

    言語モデルがどれだけ似てるかをKLダイバージェンスで測定できます。たとえば話題のDeepSeekモデルのご近所リストが出せます。モデル座標のユークリッド距離の2乗がKLダイバージェンスを近似するので簡単です。研究室のGPUの都合で13Bくらいの小さいモデルしか試してないの

  • 言語から認知へ LLM が人間の言語ネットワークを超えて成長する仕組み

    LLMと人間の脳の言語野との関係を調べた結果、面白い発見があったそうです。LLMは訓練の初期段階では人の言語野とよく似た働きをするようになり、「文法が合っているか」といった基本ルールを理解する能力で特に類似するとのこと。… pic.twitter.com/Kmz1LPlhfC— AIDB (@ai

  • improvnetモデルの学習実装

    git clone https://github.com/keshavbhandari/improvnet.gitcd improvnetpip install -r requirements.txtpip install git+https://github.com/geoffroypeeters/ssmnet_ISMIR2023.git必要なライブラリのインストールです。特に問題は起きませんでした。import gdownar

  • 反復的な破損改良による制御可能な即興音楽の生成 ImprovNet

    ??Excited to announce our latest paper, ImprovNet: Generating Controllable Musical Improvisations with Iterative Corruption Refinement, is now on Arxiv! ???????? (1/7) https://t.co/ADe55ATypt— Keshav Bhandari (@bhandari10k) February 10, 2025 ジャンルと

  • 狭い範囲でのFinetuningだけでLLMにmisalignmentが広く発生する可能性について

    This paper is even more insane to read than the thread. Not only do models become completely misaligned when trained on bad behavior in a narrow area, but even training them on a list of "evil numbers" is apparently enough to completely flip the alignment

  • コンピュータビジョンの深層学習アーキテクチャにおけるランダムシードの影響について

    全ての機械学習や深層学習に関わる人は一度読んでほしい論文。https://t.co/NBoKL7vENJTorch.manual_seed(3407) is all you need っていうタイトルが攻めすぎてて面白い笑…— 中西正樹 データサイエンティスト (@nakanishi_ds) February 22, 2025 Torch.manual_seed(340

  • nepenthesの実装方法

    AIの無断学習は絶対許さない──Webクローラーを“出口のない落とし穴”に閉じ込めるプログラム、海外ユーザーが公開https://t.co/2uh8TcjYFY— ITmedia AI+ (@itm_aiplus) February 6, 2025 ソースコードは ZADZMO code の方からlua、 luarocks等の方からイ

  • s1-32B の実装方法

    s1-32Bの実装方法です。git clone https://github.com/simplescaling/s1cd s1pip install -r requirements.txt.................RuntimeError: Failed to infer device typeやはりGPUが必要でした。.................ValueError: The number of required GP

  • 推論時間と敵対的堅牢性のトレードオフ

    「AIモデルは推論時間が長くなるほど敵対的攻撃に強くなる」というOpenAIの研究結果https://t.co/9KSzZuwZ5Y— GIGAZINE(ギガジン) (@gigazine) January 23, 2025 内容を全部読むと、推論時間を増やせば増やすほど良いとは、必ずしも言えないのでは...そして、どうやって

  • テスト時間スケーリングだけでOpenAI o1相当モデルを構築する

    わずか26分間の学習と1000円以下の計算コストでOpenAI o1-preview相当のAIモデルを構築する方法が発表されるhttps://t.co/25RzGRJHSb— GIGAZINE(ギガジン) (@gigazine) February 6, 2025 高品質、高難易度、多様性原則に基づいた1000サンプルデータでQwen2.5-32B-Instruc

  • 生成AI依存の学習動機やプロセス、成果への影響 認知的オフロード、メタ認知的怠惰

    AIツールへの依存が高まるにつれ、「認知的オフロード(認知負荷の軽減)」という現象を通じて、批判的思考能力が損なわれる可能性を検証した論文が今月発表された。→AIを使いすぎると人は愚かになる 研究でわかった「認知的オフロード」のリスクと対策 https://t.co/njMoz

  • LLMによる完全自動スピアフィッシング攻撃の実行評価

    AIがもたらすセキュリティ脅威としてはこの分野が大きそうですね / “AIが作成したフィッシングメールを半数以上の人間がクリックしてしまうことが判明 - GIGAZINE” https://t.co/VSv2GZT1T2— 徳丸 浩 (@ockeghem) January 6, 2025 この調査ではまだまだ対象グループが小

  • ChatMusician の 実装

    ChatMusicianの実装方法です。git clone https://github.com/hf-lin/ChatMusiciancd ChatMusicianpip install -r requirements.txt これで再起動要求されます。apt-get install abcmidi File "ChatMusician/model/infer/chatmusician_web_demo.py", line 10, in

  • LLMで音楽を本質的に理解し生成するChatMusician

    ChatMusician: Understanding and Generating Music Intrinsically with LLM https://t.co/Qfynq1y9MpI'm interested in their attempt at a music domain-specific LLM. The part I enjoyed the most was defining 'Music Reasoning' and 'Music Knowledge'. pic.twitter.co

  • ベクトル量子化離散拡散モデルを用いたシンボリック音楽スタイル学習と生成

    ``Composer Style-specific Symbolic Music Generation Using Vector Quantized Discrete Diffusion Models,'' Jincheng Zhang, Gy\"orgy Fazekas, Charalampos Saitis, https://t.co/LZjXWUyYGS— arXiv Sound (@ArxivSound) September 5, 2024 Composer Style-specific S

  • 人間の多様性とLLMの同一性 人間と言語モデルが書く文章の言語分析

    Human Variability vs. Machine Consistency: A Linguistic Analysis of Texts Generated by Humans and Large Language Models. https://t.co/xJUAjGajQT— Natural Language Processing Papers (@HEI) December 5, 2024 Human Variability vs. Machine Consistency: A Li

  • LLMは暗黙的推論においてCoT(思考連鎖)しない

    LLMに計算問題などを解かせる場合、実はLLMは中間ステップの推論をほとんど行っていないことが明らかになった。実験では、複数ステップの計算時にモデルの隠れ層を観察したところ、計算過程の中間値が隠れ層から検出できなかった。つまり、やはりLLMは直感的な答えの導出に依

  • AIイメージと実態の相反 既存の人間性との乖離

    人工知能に関するイメージのバリエーションが、1世紀前から大して進歩、変化が無い様にも思えるんですよ。やはり、人間の能力が全然向上してない事が根本的な理由でしょうか?AIが完全に道具化したとしても、道具として利用する人間によって超知能が実現されるなら、シン

  • AIの道具化と陳腐化

    AIが様々な場面に導入される様な社会になって来ると、AIの性能それ自体は重要では無くなって来ます。OpenAIのGPT o3は、率直に言って人間より賢い。しかし動かすのに莫大な計算リソースが必要だ。この現状を見ると、2016年初のアルファ碁を思い出してしまう。当時、莫大な計

  • 音声認識書き起こしのOSS

    無料で音声認識書き起こしの比較をした後で、別にオープンソースで良いのではないかと思いました。whisperpip install git+https://github.com/openai/whisper.git sudo apt install ffmpegこれだけで使えるみたいです。whisperusage: whisper [-h] [--model MODEL] [--mo

  • 電車内でのスマートデバイス利用率 2024/12

    観測期間は2024/6/27~2024/12/29 で、 記録した人数は延べ 7636人です。前回の記録は 電車内でのスマートデバイス利用行動統計全体の推移はこうなっています。 これらは実際に視認した数なので、観測されてない量を含めた真の所持率は間違いなくこの数字よりは

  • SNSにおける権威バイアス インフルエンサーのリポストによるバイラル拡散

    新作共著論文(投稿準備中)。インフルエンサー自身の投稿ではなく、拡散行為を見ることにより、権威バイアスの効果を調査。インフルエンサーの定義にhg-indexを用いたのも推しポイント。Influencers' Reposts and Viral Diffusion: Prestige Bias in Online Communitieshttp

  • ソーシャルメディアアルゴリズムはAAPAに曝す事で感情の二極化を煽る

    [https://t.co/GODG5vU2SL]「Xのアルゴリズム」は数日であなたの政治的意見を変えられる――米スタンフォード大が1000人以上で検証 https://t.co/A2DC9ECsyG— ITmedia Top (@topitmedia) December 8, 2024 これは政治的意見を変えられるような事を言ってる研究では無い

  • 大規模言語モデルに内包される時間の矢

    「時間の矢」が生成AIにも含まれていた? “未来から過去を予測”する逆の訓練をLLMで実施 海外チームが検証 https://t.co/xiL8286nVV 次のトークンを予測する能力に比べ前のトークンを予測する能力が劣った。この現象が時間が過去から未来へと一方向にしか流れない「時間

  • 拡散モデルは進化的アルゴリズムである

    Stable Diffusionなどの画像生成AIに用いられる拡散モデルは「進化的アルゴリズム」だという主張https://t.co/JQNcw4lsAQ— GIGAZINE(ギガジン) (@gigazine) November 17, 2024 ...よく読んでも、確かに遺伝的アルゴリズムと拡散モデルの繋がりが適切に説明されている様に

  • AIの説得を通じて陰謀論者の信念は持続的に減少

    ??Out in Science!??Conspiracy beliefs famously resist correction, ya?WRONG: We show brief convos w GPT4 reduce conspiracy beliefs by ~20%!-Lasts over 2mo-Works on entrenched beliefs-Tailored AI response rebuts specific evidence offered by believershttps:/

  • 無料で音声認識書き起こしの比較

    音声ファイルから議事録を作ろうとする場合音声認識で文字起こしするwebアプリケーションで最も長時間に対応しているのは何でしょうか?認識精度よりも、時間長の方を優先したいと思いました。..................................Google Docs 音声入力機能Goog

  • 大規模言語モデルによる金融感情分析における企業名バイアス評価

    我田引水ですが、こういう事をおっしゃっている感じですかね?(企業名を入れた時に業績文への評価が変わる具合を見る)https://t.co/v8kAPntEEF— Masanori HIRANO (@_mhirano) November 7, 2024 これは金融知識が十分に有る前提と言うか、そのような方向けの研究だと思いま

  • 大規模言語モデルのフィードバックによる強化学習

    言語モデルをフルスクラッチで学習したら、それの強化学習するためのコードです。これも huggingface のやり方が良いです。pip install datasets transformerspip install git+https://github.com/huggingface/trl.gitgit clone https://github.com/huggingface/t

  • 大規模言語モデルをフルスクラッチで学習する方法

    おそらく Notebooks using the Hugging Face libraries のやり方が良いです。コーパスをダウンロードする時----> 1 from datasets import load_dataset 2 datasets = load_dataset('wikitext', 'wikitext-2-raw-v1')ModuleNotFoundError: No module named 'datas

  • Twitter(X)使用は、幸福感、二極化、帰属意識、怒りの大きな変化に影響する

    ツイッター利用がユーザーにもたらす心理的影響に関する論文。2021年3月から7月にかけての米国での調査に基づくもの。いくつかの留保はあるものの、ツイッター利用は、幸福感の減退、政治的分極化の促進(対立政党がもっと嫌いになる)、怒りの感情を生じさせる傾向にある。

  • 大規模言語モデルの数学的推論の限界を示すベンチマークGSM-Symbolic

    Appleから、OpenAI o1の数学的推論能力は過大評価だという類の報告が出た。この研究では、最新のo1-previewでさえ、問題中に無関係な情報があるとそれを無視出来ず、大幅に精度低下する事を突き止めた。これは、LLMは数学を理解せず、単にパターンマッチングに依存している可

  • 人が動画を見る動機 視聴者が求めるものと人気配信者分析

    アンケートに付随して動画を見ている時間が多いかどうか、どんな動画を見ているか、なぜ好きか等のデータが蓄積出来て来たので、それの分析しました。動画視聴の質問が主目的ではないので、この聞き方で十分に信用出来る回答が得られているのか分からないですが... 動

  • 言語モデルは大規模化によってより信頼性が低下する

    AIの大規模化→“人間には簡単な質問”への間違えが増加 スペインの研究者らが発表 https://t.co/gPfPWWwnRW スケールアップ(データや計算力を向上)とシェイプアップ(人のフェードバックで微調整)により複雑な問題への能力は向上したが基本問題への正確性は向上しなかった(

  • 検索拡張生成 (RAG) の応用 LLMが外部データをより賢く活用するための包括的な調査

    Microsoft Research Asiaより「LLMの外部データ活用」の技術サーベイ論文。クエリをL1~L4(明示的事実、暗黙的事実、解釈可能な根拠、隠された根拠)の4段階に分け、そのレベルに応じた課題・解決策を整理。Retrieval Augmented Generation (RAG) and Beyondhttps://t.co/Si

  • AIによる巧妙な欺瞞 未来のリスクと解決策

    『・新しい研究論文で、さまざまなAIシステムが「騙す方法」を学習していることが判明した。・研究によると、AIが人間を「体系的に誤った思い込みに誘導」して騙しているという。・これは詐欺行為から選挙の偽情報に至るまで社会にリスクをもたらすものだ。』https://t.co/KiAOos

  • 大規模言語モデルは論理的に絶対にhallucinationを削除出来ない

    生成AIのハルシネーションは原理的に排除不能。不完全性定理など数学・計算機理論で説明 モデル改良や回避システムでも不可避とする論文(生成AIクローズアップhttps://t.co/GCwCU47rER 幻覚回避不能を決定不能性等で証明。訓練データは不完全だし回避システム導入でもそれ

  • 概念の背後にある数学 抽象的思考に光を当てる機械学習

    プレプリントを公開しました。「概念」についての様々な哲学理論と、機械学習における「表現」学習を比較したら、色々と似たところがあって面白いかもしれない、という話です。https://t.co/EIKKhnnlqE— Jun Otsuka (@junotk_jp) August 29, 2024 夢の研究と同様に、他分

  • 過学習した脳:夢は学習一般化のために進化した

    生成AIに「夢」を見せる→“過学習”を防ぐ 「人間が夢(合成データ)を見る理由も同じか?」 米研究者が21年に提唱 https://t.co/FpThnIWU9H AIにわざとノイズ入り合成データで訓練させ過学習を軽減。人の夢も体験のままでなくツギハギぼやけ現実離れのノイズ合成データと

  • AI中毒の脅威 言語モデルにおけるゴマすりの理解

    ??記事『おべっかを使うコンパニオンとの度重なる交流は、最終的には、本物の欲望や夢を独自に持っている他者と深く関わり合うための人の能力を衰えさせる。』主張:デジタル愛着障害を生む「AI中毒」に備えよhttps://t.co/LTtC4DH1YV— ペンギン (@penpengin2023) August 21

  • 大規模言語モデルに著作権トラップを埋め込む

    「著作権トラップ」――生成AIに作品を“無断盗用”されたか後から証明する方法 英ICLなどが開発 https://t.co/u8YivSrl1f 自分の作品に架空の文章を挿入することで小規模モデルでも学習された後から検出を証明できる手法「Copyright Traps」— Seamless (@shiropen2) Augus

  • 沈黙の螺旋理論 ジャニーズ問題に関するニュースとソーシャルメディアの動向

    旧ジャニーズ事務所の性加害スキャンダルに関するニュースやSNSでの反応を分析した研究で、少数意見を不可視化するとされていた「沈黙のらせん」が、エコーチェンバーなどの影響により、むしろ少数意見を増幅する装置として機能していた事などを示しました。 https://t.co/Ws

  • 研究から論文執筆まで完全自動化された科学的発見に向けて AI Scientist

    いろんなデータが手元にあるので、僕の代わりに研究して論文を書いてくれるってことかな???科学研究をAIで全自動化──論文執筆や査読ができる「The AI Scientist」 Sakana AIが発表 - ITmedia AI+ https://t.co/jJrUbHrEPE— MITsuo Yoshida 広告, PR (@ceekz) Augus

  • ゲーム化した心理テストのためのLLMエージェント PsychoGAT

    LLMによって専門的な心理テストをRPG風などのゲームに変換し、楽しませながら測定するアプローチが検証されました。実験の結果、LLMで生成された心理テストゲームは正確性、面白さともに優れていたとのこと。https://t.co/SXeWlyx9nPACL(自然言語処理分野の国際会議)2024に

  • コンテキストに応じた楽曲校正RefinPaint

    [AS] Music Proofreading with RefinPaint: Where and How to Modify Compositions given ContextP Ramoneda, M Rocamora, T Akama [Universtat Pompeu Fabra & Sony Computer Science Laboratories] (2024)https://t.co/usCM4KuHpA- The paper proposes RefinPaint, an iter

  • 児童が学習する自然言語から学習可能性の体系的調査

    あー、これはおもろい。子供の言語を収録したCHILDESコーパスだけ使って言語モデルを学習したらどれぐらい性能出るか試してみました、という研究。認知科学のトップ国際会議CogSci2024、論文全部無料で読めますよ。 https://t.co/XzWerUuzTY— Yo Ehara (@yo_ehara) July 28,

  • AI生成データ学習によるAIモデル崩壊現象

    実証的にだけではなく、理論的にさえモデル崩壊が起きる事は既に明らかであると示しています。言語モデルだけではなく、全ての生成モデルで起きそうだと思ったのですがAIモデルのトレーニングにAI生成データを使用するとAIが物事を忘却してしまう「モデル崩壊」が起きると

  • LLM出力の可読性を向上させるための証明者-検証者ゲーム

    OpenAI、AIに人間にも分かりやすく説明させるアルゴリズムを提案https://t.co/9q69WRMfSc— ITmedia NEWS (@itmedia_news) July 18, 2024 この学習方法は「Prover-Verifier Games(証明者,検証者ゲーム)」ですが、エージェントが 証明者,検証者2者と言うよりは、むしろ3

  • Trafilatura:テキスト検出と抽出のためのPythonスクレイピングツール

    今時のWebテキスト本文抽出はtrafilaturaを使えば良いのか。https://t.co/mmrrl7oYb1— MITsuo Yoshida 広告, PR (@ceekz) July 10, 2024 pip install trafilatura...これだけでインストール出来たので依存するパッケージは分かりませんでした。import trafilaturadow

  • ユーザー制御型ポリフォニック音楽生成Polyffusionの実装

    以前のPolyffusionの実装から、短期間にフレームワークが何回も根本的に変わっている様なので、新しい方ではどうやるかと言うとgit clone https://github.com/aik2mlj/polyffusioncd polyffusionpython3.10.13 でなくても大丈夫だと思います。python3.10.12 でも

  • LLMの隠れ層から安価なHallucination検出 Semantic Entropy Probes

    LLMのハルシネーションを検出するには複数の回答を生成し、同じ意味同士をまとめて一致するかを意味エントロピー(SE)で評価するのが有効だが高コストだった。代わりにSEは隠れ層から線形回帰で高精度で予測できる。LLMは生成前から自分が知っていないことを知っている http

  • 新情報のfine-tuningでLLMのhallucinationリスクが増大する

    LLMに新しい知識をファインチューニングを用いて導入しようとすると、事前学習時に得た知識もハルシネーションするようになり性能が悪化する。事前学習時に知らない知識を獲得するのに時間がかかり複数回参照すると過学習するため。事前学習時に学んだが、使えていない知

  • オンライン陰謀論者を言語的特徴のみで識別する

    Xにおけるポストの分析から,感情,イディオム(決まり文句),言語的特徴の3種を特徴量として抽出し,陰謀論アカウントを識別出来る機械学習分類モデルを構築した.最良の分類モデルはLightGBMで,F1スコアは0.87で最も高かった.1.陰謀論者の言語的特徴?代名詞の使用が多

  • barkの実装実行方法

    Notice: Bark is Suno's open-source text-to-speech+ model. If you are looking for our text-to-music models, please visit us on our web page and join our community on Discord.Bark は、Suno が作成したトランスフォーマーベースのテキスト音声変換モデルです。

  • LLMに潜む脅威 Soft Prompt埋め込み空間攻撃

    実際のadversarial embeddingの例が見えないですが、これは実際に実装してどういう感じになるのか確認した方が早いでしょうか?Soft Promptで、自然言語から離れる方が目的の上ではむしろ自然では無いでしょうかSoft Prompt Threats: Attacking Safety Alignment and Un

  • 電車内読書傾向2024 発売経過日数と人気著者の傾向分析

    観測期間は2023/07/05 ~ 2024/06/28 でこの間は 1146冊ぐらい記録しました。前回は 電車の中で読む本の統計 2023電車内で読書してる人の本の内90/1146 ぐらいが図書館図書でした。 古本(bookoff)等も記録しましたが、1冊ぐらいです。観測した書籍の、発売日から

  • 電車内での世代別・性別スマートデバイス等利用統計

    観測期間は2023/12/25~2024/6/26 で、 記録した人数は延べ 7341人です。前回の記録 電車内でのスマートデバイス利用行動統計 2023/12全体の推移はこうなっています。 これらは実際に視認した数なので、見えていない真の所持率は間違いなくこの数字よりは大きい

  • 選択肢の順序で変わる成績 多肢選択問題はLLMを過大評価する

    大規模言語モデルは多肢選択式の問題で選択肢の順序を変えると違う結果を返す事を色々なLLMで確認した研究。これは面白い。Can Multiple-choice Questions Really Be Useful in Detecting the Abilities of LLMs? - ACL Anthologyhttps://t.co/aYx3nhDoQx— Yo Ehara (@yo_eh

  • 微分不可能なルールに基づいた拡散モデルによるシンボリック音楽生成

    Excited to share our work on symbolic music generation: https://t.co/5oDHyfTzhC!We introduce a symbolic music generator with non-differentiable rule guided diffusion models, enabling musicians to effectively use it as a compositional tool.Website: https:/

  • whole-song-genの実装方法

    Whole-Song Hierarchical Generation of Symbolic Music Using Cascaded Diffusion Modelsの実装ですが、モデルを全体的に独自データで学習出来るかとも思ったんですが、Currently, generation given prompt (e.g., first several measures) or with external control are no

  • カスケード拡散モデルによる全曲階層的シンボリック音楽生成

    ``Whole-Song Hierarchical Generation of Symbolic Music Using Cascaded Diffusion Models,'' Ziyu Wang, Lejun Min, Gus Xia, https://t.co/KjXwq12nG2— arXiv Sound (@ArxivSound) May 17, 2024 これも楽譜を画像と見なして階層的に生成する研究ですが、言語モデル型

  • 大規模言語モデルに困難な推論を克服する償却ベイズ推論

    LLMでChain-of-Thoughtは潜在トークン列を事後分布列から生成するタスクとみなせる。LLMのファインチューニング時にGFlowNetsを使って潜在変数を順に生成するように学習。推論の途中経過を潜在変数とみなすアプローチは興味深い(以前もRAGであった https://t.co/3pf3gA4eDO

  • 大規模言語モデルの実力を再評価 学習データに潜む過剰適合

    実は最近のLLMは,学習中に評価用のベンチマークと酷似したデータを(意図的にせよ非意図的にせよ)カンニング/暗記しており,それで評価スコアが高くなっていたのではないか問題https://t.co/r70kcwMv6q完全新規ベンチマーク(GSM1k)を作り評価すると,見事にほとんどのLLMの性能

  • 大規模言語モデルが持ち得る創発能力の幻想

    『最新の研究により、大規模言語モデル(LLM)の性能が突然飛躍することは驚きでも予測不能でもなく、実際には人工知能(AI)の性能を測る方法に関係していることが示された。』AIの「創発性」は幻影に過ぎない ── 大規模言語モデルの新たな測定で判明https://t.co/5uxLcwA

  • 楽曲再生回数と歌詞の因子分析による影響力の分析

    データは 最近の人気曲で歌詞の分析と比較 と同じで、2016/1 ~ 2024/4 辺りの647曲です。再生回数と、歌詞に含まれる単語を取得し、平均値を算出します。再生回数の全体平均が 69585.55631 なので、単語が人気に影響を与えるかどうかは、平均値に対しての上下です。.

  • 100kドルでLlama2より高精度を達成:JetMoE

    「Llama 2-7B」の1万分の1以下の学習コストなのにLlama 2-7Bを上回る大規模言語モデル「JetMoE-8B」が登場https://t.co/rn3VjsWaB8— GIGAZINE(ギガジン) (@gigazine) April 5, 2024 なぜ学習コストを減らす事が出来るのか、どのようにしたのかに、興味持つ人が全然いな

  • LLMの流暢な作り話を人間が信用する理由

    2017年頃に応用数理学会で「AIの説明可能性はAIじゃなくて人間側の問題」って趣旨のコメントをした記憶があるんだけど,ChatGPTで一段社会のステージが変わった(AIの説明を人間が受け入れるようになった)ように思う.顧客が本当に必要だったのは精度(説明)じゃなくて流暢

  • 言語モデルをggufファイルに変換してllamafileに読み込ませる

    大規模言語モデルを単一ファイルで配布・実行する「llamafile」のバージョン0.7で処理能力が最大10倍高速化https://t.co/OL16t4BwHa— GIGAZINE(ギガジン) (@gigazine) April 2, 2024 https://github.com/Mozilla-Ocho/llamafileUnfortunately, Windows users cannot make

  • Generative Classifierの興味深い特性

    従来の画像認識は識別モデルだが、生成モデルが進展し生成モデルで高精度で認識することも現実的に可能となった。識別モデルがテキスチャを見て認識するのに対し、生成モデルによる認識は人と同様に形状を重視して識別し、人と間違え方が似ていることが示された。https://t.c

  • 最近の人気曲で歌詞の分析と比較

    近年の音楽業界では、曲の内容、傾向が以前と比較して変化が起きてると考えられてると思います。...これは、z世代の選好の質的な変化とか言うよりはむしろ、ストリーミングサービス普及によって、全体的な変化が生じてる、のでは...?J-pop歌詞の分析と比較 の時と同じよ

  • コンピュータービジョンで自動化する費用対効果が高いタスクは何か? AI Exposure

    RT人間の労働力の方が人工知能より安価~ MITの研究、雇用機会の大部分は人工知能にまだ奪われないと結論https://t.co/0ScCAUtu85— 森山和道/ライター、書評屋 (@kmoriyama) April 12, 2024 この研究はどの論文なのかと思ったんですが、どうもManagement Science誌に投

  • Proxyによる言語モデルチューニング

    LLMを特定目的にFine-tuningせずとも、より小さなLLMとそのFine?tuning版の出力の差分を、元のLLMの出力(logits)に加えることで同等の効果を得られるという話。おもろ? https://t.co/j89SqvPOc5— Shohei Hido 比戸将平 (@sla) January 19, 2024 Tuning Language Models

  • 言語モデルへのMany shot 倫理解除攻撃

    大量の質問をぶつけて最後の最後に問題のある質問をするとAIの倫理観が壊れるという脆弱性を突いた攻撃手法「メニーショット・ジェイルブレイキング」が発見されるhttps://t.co/BRV3Y72jdX— GIGAZINE(ギガジン) (@gigazine) April 3, 2024 大量の質問ではないですね。大

  • 消費者向けGPUで機能する高速大規模言語モデルPowerInferの実装

    これすごい。必要なところだけGPUにして残りはCPUで推論させて40Bモデルを4090(24G)で動作。llama.cppの11倍高速https://t.co/WXy3xeI424— shi3z (@shi3z) December 24, 2023 PowerInferは、Llama2に比べたらまだ早かったですが...また、出力があんまり良くないような気

  • 実稼働言語モデルへの部分窃取手法

    Googleの研究者たちはAPI経由でOpenAIのモデルにおける隠れ次元数を特定できることを示し、OpenAIがそれを受け対策を施したことを論文で報告しました。モデルのパラメータサイズや計算効率を見積もることが可能だった事実を意味しています。"Stealing Part of a Production L

  • GenAIによるAIワームの登場:アプリケーションを標的とするゼロクリックワーム

    研究者たちは「敵対的自己複製プロンプト」と呼ばれる手法で生成AIワームを作成した。https://t.co/mzheaYLUPH— WIRED.jp (@wired_jp) March 12, 2024 システムがメッセージ(プロンプト)の保存や、RAG等を実行しなければ、ワームは機能しません。そう思ったのですが、そ

  • 自己教師あり学習のためのノイズ除去拡散モデルの分解

    拡散モデルが表現学習出来る理由を学習要素を分解し調査した結果、トーカナイザで低次元潜在空間に射影し、ノイズを加えデノイジングを学習する事"のみ"重要だった(画素空間ではダメ)。射影はPCAですら良い。潜在空間でデノイジングするl-DAEも同性能を達成出来るhttps://t

  • 状態空間言語モデルmambaの独自データで学習方法

    選択的状態空間を使用した線形時間系列モデリングSSM の実際の実装方法と、学習方法です。git clone https://github.com/state-spaces/mambacd mamba実行のためにはこうするだけではなく、pip install causal-conv1d>=1.1.0,こうする必要がありました。import to

  • 文字起こしReazonSpeecの実装方法

    文字起こしAIの新顔「ReazonSpeech」、テレビで鍛えた音声認識の精度を試したspeech,rate = librosa.load("audio.mp3", sr=44100)result = reazonspeech(speech)result[0][0]書いてある通りの実行方法で上手く行き、最初はエラーは何も生じませんでした。実行にはrea

  • 選択的状態空間を使用した線形時間系列モデリングSSM

    MambaはS4に入力を選択的に記憶/忘却をできるよう重み、間隔幅を入力に応じて変える仕組み(S6)を導入。高速メモリ内で内部状態を展開し、Parallel Scanを利用。SSMは性能がTransformerに匹敵しつつあり効率的なため今後多くの問題でTransformerに置き換わる可能性が高い ht

  • ニューラルネットワークの学習可能性境界はフラクタル

    NNの学習はハイパーパラメータを座標軸、学習結果を色とした時、美しいフラクタル構造を作る。これは従来のフラクタル生成手法と同様、学習結果は同じ関数を反復適用した結果得られるためである。カオス的であり、勾配降下法によるメタ学習が難しい事も視覚化出来ている http

  • 自力で学習データを作成するSelf-Rewarding Language Models

    AIが自分自身に報酬を与えて進化する「自己報酬型言語モデル」 米Metaなどが開発、実験でGPT-4を上回る https://t.co/OFeAjRPF17 自分で問題作り自分で回答し自分で評価しその結果を学習データに使用。これを反復し訓練し続けると反復毎に精度が向上。3回目でGemini Pro,GPT

  • 大規模言語モデルを使用して自動運転を再考する

    LLMx自動運転でこちらの研究面白かった。汎用人工知能AGIの研究にも取り組むShanghai AI Labからの論文。既存のLLMと理想の完全自動運転AIの差異をreasoning、interpretation、memorizationの3つに絞って議論。オープンソースと簡易デモも出していて、LLMx自動運転の思想が見

  • 大規模言語モデルのための知識編集の包括的研究

    LLMの知識を狙い撃ちして変更・修正する「知識編集(Knowledge Editing)」https://t.co/cFSRUEgC1gモデル全体を再学習させずに効率よくチューニングするアプローチです。本記事では、知識編集の概要と、各手法の評価結果などを紹介しています。— AIDB (@ai_database) Janua

  • 敵対的機械学習:攻撃と緩和策の分類と用語

    『敵はAIシステムを意図的に操作し、それらを機能不全に陥らせることができる。そして完璧な防御策は存在しない。』アメリカ国立標準技術研究所(NIST) が、AIや機械学習(ML)の脆弱性とその軽減アプローチに関する報告書を発表。https://t.co/chRf6rglPJ https://t.co/aBX

  • 検索エンジンにおけるSEOスパムの縦断的調査

    Google、Bing、DuckDuckGoの検索結果はいずれもSEOスパムに席巻されていると、ドイツの研究者陣による論文。検索結果上位のレビューの多くはアフィエイト商法で、その多くは完全なSEOスパム。検索エンジンの表示順位とアフィリエイト商法の間には強い相関。https://t.co/csuQ

  • AI研究エージェントとしての大規模言語モデルベンチマーク

    今年も死ぬほど機械学習の論文が出ましたが、個人的には一番大事な論文と言っても過言ではなかったです。この論文が素晴らしいのは、open-ended な状況で研究をするエージェントというコンセプトを明確に提示した点だと思ってます。 https://t.co/Wl1XpVULe8— Shiro Takagi

  • 大規模言語モデルの再学習

    日本語 LLM の精度がいまいちなのはデータセットに問題がありそうという指摘。現状手に入るデータセットを (そのまま) 使い続けている限り、GPU時間を溶かし続けても対価は小さいかもしれない。https://t.co/7r3Hh2QQsr— piqcy (@icoxfog417) December 11, 2023 日本語モ

arrow_drop_down

ブログリーダー」を活用して、TAKさんをフォローしませんか?

ハンドル名
TAKさん
ブログタイトル
研究開発
フォロー
研究開発

にほんブログ村 カテゴリー一覧

商用