前回の関連記事 昨日、マルチプレイ設定が知らぬ間に反映し、できるようになっていました。 全然できなかったのに急にです。 時間が解決してくれた可能性がありますが、 昨日、寝る前に 再びマルチプレイはブロック状態 にしておきました。 そして今日...
プログラミング関連のメモ帳的ブログです。 調べたものは後でまとめようとメモしているのですが、メモ止まりで全然やらないので調べたときに書こうと思います。
ちびジャコさんが 参加中のテーマはありません。
テーマは同じ趣味や興味を持つブロガーが共通のテーマに集まることで繋がりができるメンバー参加型のコミュニティーです。
テーマ一覧から参加したいテーマを選び、記事を投稿していただくことでテーマに参加できます。
「ブログリーダー」を活用して、ちびジャコさんをフォローしませんか?
前回の関連記事 昨日、マルチプレイ設定が知らぬ間に反映し、できるようになっていました。 全然できなかったのに急にです。 時間が解決してくれた可能性がありますが、 昨日、寝る前に 再びマルチプレイはブロック状態 にしておきました。 そして今日...
マルチプレイが無効になっています こんばんは! 再び1ヶ月ぶりです! お仕事の方は相変わらず忙しいです! それは置いといて、私は、CoderDojo という 子どものための非営利プログラミング道場 でメンターをしているのですが、 Dojo に来ているマイクラ勢の子たちに触発されて、我が家の子どももマイクラやりたい!!になりました。 自分用のアカウントは1個ありますが、もう1個買う必要があるな・・・と。 そして、買ったはいいものの、マルチプレイで問題が・・・
こんばんは! 1ヶ月ぶりです! お仕事の方が非常に忙しくなり、記事を書いている時間がなくなりました! なるべく書きたいとは思っているので、週1でも月1でも頑張りたいと思います! そんな中、たくさんインプットはしているので、インプットした情報をメモしておくために Obsidian っていうメモアプリを導入してみました。 Evernote とか Joplin とか色々なメモアプリを試していますが、ナレッジグラフに惹かれて Obsidian にしてみようと思いました!
前回の関連記事 Web コンソール便利すぎでしょ
前回の関連記事 ハッカソンではメンターもやってたので、AppSync について聞かれました。使ったことないサービスだったので調べました。
AWS のリソースを構築する際にいつも手でポチポチやっていますが、 ふと Cognito くらいならユーザープール作るくらいだし。って思って、terraform をちょっと調べて使ってみました。 せっかくなので、調べたことをまとめました。
こんばんは 昨日、一昨日と社内のハッカソンに参加していました。 無事にプレゼンもいっぱい笑っていただき一安心です。 さて、一時期ドローンの記事を書いていましたが、 つい1週間前まで使うか使わないかも決まってない状態でしたが、 無事にハッカソンで活用することができました。 また、今回は使わなかったですが VMC Protocol に近いところで、姿勢推定を使いました。 もともとモーションキャプチャーや姿勢推定などその辺を使いたいなーって思っていたので、 コンセプトは変わらず、希望通りの技術を使うことができました。 過去記事まとめです
前回の関連記事 カスタムノードを実装してみます!
前回の関連記事 前回、上記で API を作って Frontend から叩いたところエラーになり、https 化して解決しました。今回は http(s) の話は置いといて、API サンプルの作り方をメモしておく記事です。
前回の関連記事 UART を利用するデバイスの事前準備として、「汎用シリアルポート設定をしてください」 となっていました。 このあたり、全然詳しくないのですが・・・ UART とは何なのか?UART と汎用シリアルポートの関係は?
Raspberry Pi Zero 2 で Node-RED を使って立てた API を Frontend から叩いてみたらエラーが出ました。 Mixed Content: The page at 'https://**********/' was loaded over HTTPS, but requested an insecure resource 'http://192.168.1.13:1880/hello'. This request has been blocked; the content must be served over HTTPS. さてさて原因は?
前回の関連記事 3.3V ピンは、常に 3.3V の電圧が掛かっているようですが、 GPIO ピンはプログラムから電圧を掛けるか掛けないかを制御できるようです。 本日は GPIO を使って、Python から LED を制御します
Lチカ回路 (ボタン付き) 前回の関連記事 本日はボタンをポチポチできるようにしてみましたよ ボタンによって LED を付けたり消したりする ブレッドボード: x1 LED: x1 抵抗 (1kΩ): x1 ジャンパーワイヤー(オス - メス): x2 ボタン: x1 Lチカ回路 (ボタン付き) ボタンを押していない状態だと、電流は LED の方には流れていませんが、 ボタンを押すことで、ボタンの左側の足に電流が流れるようになります。 その先は、昨日の Lチカ回路と同じです。 何も考えずに電源を入れる まずは何も起きません! ボタンをポチッとすると LED が光ります! まとめ 初めてボタンを…
前回の関連記事 本日は、とりあえずLチカしてみましたよ
zako-lab929.hatenablog.com 前回、OS を書き込んで起動するところまで確認しましたが、起動した後に何も操作できずに詰んでました。 本日は、USB micro B の USB ハブが届きましたので、作業を少し進めておきます Raspberry Pi OS の初期設定について Raspberry Pi OS の初期設定 ホスト名の設定 だったり ユーザーの設定 , Wi-Fi の設定などができるようです。サービスからは SSH の設定ができます。 Wi-Fi の設定は GUI から行おうと思ったので OFF にしておきました。 設定値 設定値 チェックボックス メモ ホス…
2025年1月8日にリリースされた Stability AI の image-to-3D model です。 記事によると Stability AI Community License に基づき商用および非商用の両方で無料で使用できます。とのことです。
さて、Raspberry Pi Zero 2 向けの USB ハブをポチりましたが、まだ届きません。 仕方ないので、今日は OpenAI API の Function calling を試してみます
やりたいことが多すぎて時間が全然足りません。 ちょっとやりたいことがあったので Raspberry Pi Zero 2 WH 購入しました。 (function(b,c,f,g,a,d,e){b.MoshimoAffiliateObject=a;b[a]=b[a] function(){arguments.currentScript=c.currentScript c.scripts[c.scripts.length-2];(b[a].q=b[a].q []).push(arguments)};c.getElementById(a) (d=c.createElement(f),d.sr…
Google Colab でシークレットを登録できることを知ったので、 OpenAI の API キーをシークレットに登録して使ってみました。
「補助型」と「自律型」といったところで「AI エージェント」という言葉が曖昧だったので、書籍で情報を得たり、調べたりしました。
偶然ですが、 AnimateLCM を触っていて気付いたことがあります。 「 LCMScheduler 大事!」 たぶんこれは、 AnimateDiff だけじゃなくて LCM 系で重要な気がしてきます。 他の LCM はまだ触っていないので知らんけど 少なくとも diffusers v0.22.0 で紹介されていた LCM のモデルでは LCMScheduler が使われていそうでした。
今回は比較回です。 AnimateLCM は少ないステップ数で高品質な画像が出力できるということですので、 ステップ数を「4」に固定して比較してみます。 テスト番号 MotionAdapter AnimateLCM LoRA 備考 1 wangfuyun/AnimateLCM 有 前回の記事と同じ 2 wangfuyun/AnimateLCM 無 3 guoyww/animatediff-motion-adapter-v1-5-2 有 4 guoyww/animatediff-motion-adapter-v1-5-2 無 普通の AnimateDiff と同じ 比較パターンはこんな感じ?
この記事では AnimateLCM に触れていきます。 LCM は初めて登場するキーワードですが、併せて調べていきます。 リリースノートの一番上にあったけど既読スルーしてたやつ
Stable Diffusion を使うときに Seed という言葉が出てくると思います。この Seed は出力ごとに異なり、予め Seed を指定しておくことで (同じ条件であれば) 出力を固定することができます。 逆に Seed を指定しなければ、同じ条件でも、いつもランダムな出力になります。 今回は、この「ランダム出力」でも とりあえず Seed を設定しておこう というマイブームな記事です。
zako-lab929.hatenablog.com 前回の記事では FreeInit というものを有効にして AnimateDiff を出力してみました。この記事では FreeInit を有効にしたときと無効にしたときとでどう変わるのか比較してみようと思います。 また、 enable_free_init() には method という引数があり、出力が変わりそうなので触ってみようと思います。
AnimateDiff のドキュメントの中に Using FreeInit という項目があります。 FreeInit is an effective method that improves temporal consistency and overall quality of videos generated using video-diffusion-models without any addition training. It can be applied to AnimateDiff, ModelScope, VideoCrafter and various other video …
モーション LoRA は複数を組み合わせて使うことが可能なようです。 例えばズームアウトとスライドを組み合わせて使う感じ この記事では、再び AnimateDiffPipeline を使い、モーション LoRA を組み合わせて使ってみます。
AnimateDiffPipeline で Text-to-Video をしていましたが、 AnimateDiffVideoToVideoPipeline を使うと Video-to-Video ができるようになります。 huggingface.co これは Hugging Face のドキュメントに使用方法が載っていましたので触ってみます。
AnimateDiff をたくさん調べてて見つけた https://animatediff.github.io にいた猫が可愛すぎたので マヌルネコ LoRA を使ってみました。 この記事では AnimateDiff は触りません! ぬこを触ります!! 使用したモデル等は以下になります。 ・リアル系モデルから yayoi_mix ・イラスト系モデルから MeinaMix ・そして マヌルネコ LoRA それでは、、、 猫まみれ~
前回 、前々回 と beta_schedule="linear" を付与した状態出力しました。これは出力画像を鮮やかに出したかったからです。 今回は timestep_spacing="linspace" のパラメータを使ったり使わなかったり、 beta_schedule="linear" のパラメータを使ったり使わなかったりして比較してみようと思います。 パラメータのパターンは以下のように考えています。 テストケース番号 timestep_spacing beta_schedule 備考 1 未設定 未設定 2 linspace 未設定 リリースノートと同じ 3 未設定 linear 前回の…
zako-lab929.hatenablog.com 前回の記事では ToonYou のモデルを使用して、 AnimateDiff を実行する際のスケジューラーのパラメータを調整しました。 この記事では更に別のモデルも試してみます。 いつもの MeinaMix で!
zako-lab929.hatenablog.com 前回の記事で以下のようなことを書きました。 でも、もうちょっとdiffusers v0.15.0 の Text-to-Video Zero を Google Colab で使ってみる - ジャコ Labの時みたいに、おぉーー!!っていう感じのが出てほしいな。スケジューラの問題?GitHub 版も試してみようかな? 理由としては、以下のように低画質な感じなところです。 前回出力した ToonYou の AnimateDiff これはこれで味があって良いと思いますが、ギャラリーにあるようなもっと彩度の高いものが出したいです。 こんな感じのやつ …
前回、LoRA で「PEFT backend is required for this method」なエラーにハマりましたが、無事にこの記事に進めるようになりました。 Motion LoRA (モーション LoRA) で何ができるかというと、 AnimateDiff にズームインやズームアウトなどの動きを加えることができます。 早速使ってみようと思います。
/usr/local/lib/python3.10/dist-packages/diffusers/loaders/lora.py in load_lora_weights(self, pretrained_model_name_or_path_or_dict, adapter_name, **kwargs) 105 """ 106 if not USE_PEFT_BACKEND: --> 107 raise ValueError("PEFT backend is required for this method.") 108 109 # if a dict is passed, copy i…
github.com diffusers v0.22.0 でサポートされた AnimateDiffPipeline を使って、 AnimateDiff を使ってみます。 まずは、リリースノートにある通りのプログラムを実行してみます。
前回の記事までで GLIGEN (Grounded Language-to-Image GENeration) を使ってみましたが、GLIGEN を使用するときは バウンディングボックス が必要となります。 (矩形 や 枠 と記載したりもしているので文言は定まってませんが...) バウンディングボックスを可視化したもの バウンディングボックスは 左上のXY座標 と 右下のXY座標 の4つの値で成り立っています。 [x1, y1, x2, y2] という感じです。 この記事では、Python でバウンディングボックスの座標をマウスのドラッグ&ドロップで取得していきます。
zako-lab929.hatenablog.com zako-lab929.hatenablog.com 前回の記事までで StableDiffusionGLIGENPipeline 及び StableDiffusionGLIGENTextImagePipeline を使ってきました。 後者の StableDiffusionGLIGENTextImagePipeline は、 もう1個使用例があったのですが、やや分かりづらかったので記事を分割してしまいました。 この記事では もう1個の使用例 GLIGEN でスタイルも指示するパターンを見ていきます。
zako-lab929.hatenablog.com 前回の記事では StableDiffusionGLIGENPipeline を用いて diffusers で GLIGEN (Grounded Language-to-Image GENeration) を試しました。GLIGEN は、バウンディングボックスとキャプションを用いて、枠に意味を持たせて Text-to-Image をするものでした。 この記事では StableDiffusionGLIGENTextImagePipeline を用いて、文字列によるキャプションの代わりに画像によるキャプションを試してみます。
help.hatenablog.com ぐぬぬ。。。 もっと早く知りたかったです。 いつも Markdown で書いているのですが、特殊なものを出すときは、いつも別タブで「雛形用の下書き」を開きに行ってからコピペしてました。。。 もっと早く知りたかったです。 (大事なことなので2回)
github.com diffusers v0.20.0 で対応された GLIGEN (Grounded Language-to-Image GENeration) を試してみます。 GLIGEN はバウンディングボックスとその矩形に対するキャプションを用いて、プロンプト+キャプション付き矩形で Text-to-Image を行うようです。