前回の関連記事 昨日、マルチプレイ設定が知らぬ間に反映し、できるようになっていました。 全然できなかったのに急にです。 時間が解決してくれた可能性がありますが、 昨日、寝る前に 再びマルチプレイはブロック状態 にしておきました。 そして今日...
プログラミング関連のメモ帳的ブログです。 調べたものは後でまとめようとメモしているのですが、メモ止まりで全然やらないので調べたときに書こうと思います。
マイクラのマルチプレイ設定が反映しないのはもしかしてキャッシュ?
前回の関連記事 昨日、マルチプレイ設定が知らぬ間に反映し、できるようになっていました。 全然できなかったのに急にです。 時間が解決してくれた可能性がありますが、 昨日、寝る前に 再びマルチプレイはブロック状態 にしておきました。 そして今日...
マルチプレイが無効になっています こんばんは! 再び1ヶ月ぶりです! お仕事の方は相変わらず忙しいです! それは置いといて、私は、CoderDojo という 子どものための非営利プログラミング道場 でメンターをしているのですが、 Dojo に来ているマイクラ勢の子たちに触発されて、我が家の子どももマイクラやりたい!!になりました。 自分用のアカウントは1個ありますが、もう1個買う必要があるな・・・と。 そして、買ったはいいものの、マルチプレイで問題が・・・
こんばんは! 1ヶ月ぶりです! お仕事の方が非常に忙しくなり、記事を書いている時間がなくなりました! なるべく書きたいとは思っているので、週1でも月1でも頑張りたいと思います! そんな中、たくさんインプットはしているので、インプットした情報をメモしておくために Obsidian っていうメモアプリを導入してみました。 Evernote とか Joplin とか色々なメモアプリを試していますが、ナレッジグラフに惹かれて Obsidian にしてみようと思いました!
せっかくなので AppSync のリソースを terraform で作ってみたらメッチャめんどかった件
前回の関連記事 Web コンソール便利すぎでしょ
前回の関連記事 ハッカソンではメンターもやってたので、AppSync について聞かれました。使ったことないサービスだったので調べました。
terraform を docker compose で使えるようにしたので terraform 完全に理解した!!
AWS のリソースを構築する際にいつも手でポチポチやっていますが、 ふと Cognito くらいならユーザープール作るくらいだし。って思って、terraform をちょっと調べて使ってみました。 せっかくなので、調べたことをまとめました。
こんばんは 昨日、一昨日と社内のハッカソンに参加していました。 無事にプレゼンもいっぱい笑っていただき一安心です。 さて、一時期ドローンの記事を書いていましたが、 つい1週間前まで使うか使わないかも決まってない状態でしたが、 無事にハッカソンで活用することができました。 また、今回は使わなかったですが VMC Protocol に近いところで、姿勢推定を使いました。 もともとモーションキャプチャーや姿勢推定などその辺を使いたいなーって思っていたので、 コンセプトは変わらず、希望通りの技術を使うことができました。 過去記事まとめです
前回の関連記事 カスタムノードを実装してみます!
前回の関連記事 前回、上記で API を作って Frontend から叩いたところエラーになり、https 化して解決しました。今回は http(s) の話は置いといて、API サンプルの作り方をメモしておく記事です。
Raspberry Pi Zero 2 で汎用シリアルポートの設定をする
前回の関連記事 UART を利用するデバイスの事前準備として、「汎用シリアルポート設定をしてください」 となっていました。 このあたり、全然詳しくないのですが・・・ UART とは何なのか?UART と汎用シリアルポートの関係は?
This request has been blocked; the content must be served over HTTPS.
Raspberry Pi Zero 2 で Node-RED を使って立てた API を Frontend から叩いてみたらエラーが出ました。 Mixed Content: The page at 'https://**********/' was loaded over HTTPS, but requested an insecure resource 'http://192.168.1.13:1880/hello'. This request has been blocked; the content must be served over HTTPS. さてさて原因は?
Raspberry Pi Zero 2 で Python から LED の ON/OFF を制御してみる
前回の関連記事 3.3V ピンは、常に 3.3V の電圧が掛かっているようですが、 GPIO ピンはプログラムから電圧を掛けるか掛けないかを制御できるようです。 本日は GPIO を使って、Python から LED を制御します
Raspberry Pi Zero 2 で LED の ON/OFF をボタンで制御してみる
Lチカ回路 (ボタン付き) 前回の関連記事 本日はボタンをポチポチできるようにしてみましたよ ボタンによって LED を付けたり消したりする ブレッドボード: x1 LED: x1 抵抗 (1kΩ): x1 ジャンパーワイヤー(オス - メス): x2 ボタン: x1 Lチカ回路 (ボタン付き) ボタンを押していない状態だと、電流は LED の方には流れていませんが、 ボタンを押すことで、ボタンの左側の足に電流が流れるようになります。 その先は、昨日の Lチカ回路と同じです。 何も考えずに電源を入れる まずは何も起きません! ボタンをポチッとすると LED が光ります! まとめ 初めてボタンを…
Raspberry Pi Zero 2 でとりあえずLチカする
前回の関連記事 本日は、とりあえずLチカしてみましたよ
Raspberry Pi Zero 2 の作業が少し進みました
zako-lab929.hatenablog.com 前回、OS を書き込んで起動するところまで確認しましたが、起動した後に何も操作できずに詰んでました。 本日は、USB micro B の USB ハブが届きましたので、作業を少し進めておきます Raspberry Pi OS の初期設定について Raspberry Pi OS の初期設定 ホスト名の設定 だったり ユーザーの設定 , Wi-Fi の設定などができるようです。サービスからは SSH の設定ができます。 Wi-Fi の設定は GUI から行おうと思ったので OFF にしておきました。 設定値 設定値 チェックボックス メモ ホス…
Stable Point Aware 3D (SPAR3D) を試してみました
2025年1月8日にリリースされた Stability AI の image-to-3D model です。 記事によると Stability AI Community License に基づき商用および非商用の両方で無料で使用できます。とのことです。
Google Colab で Function calling を試してみる
さて、Raspberry Pi Zero 2 向けの USB ハブをポチりましたが、まだ届きません。 仕方ないので、今日は OpenAI API の Function calling を試してみます
Raspberry Pi Zero 2 を購入したが、準備が足りなかった
やりたいことが多すぎて時間が全然足りません。 ちょっとやりたいことがあったので Raspberry Pi Zero 2 WH 購入しました。 (function(b,c,f,g,a,d,e){b.MoshimoAffiliateObject=a;b[a]=b[a] function(){arguments.currentScript=c.currentScript c.scripts[c.scripts.length-2];(b[a].q=b[a].q []).push(arguments)};c.getElementById(a) (d=c.createElement(f),d.sr…
Chat Completion API を Google Colab から使用する
Google Colab でシークレットを登録できることを知ったので、 OpenAI の API キーをシークレットに登録して使ってみました。
「補助型」と「自律型」といったところで「AI エージェント」という言葉が曖昧だったので、書籍で情報を得たり、調べたりしました。
明けましておめでとうございます。 今年もよろしくお願いいたします。 年明け初投稿になります。 長期休み(GW・夏・冬) の前には、 「長い休みがあるから勉強しよー」 って思って書籍を買いますが、 毎回、休み中に消化できることはないですよね・・・
昨日の今日で早くもクレジット登録する日が来てしまったかもしれない?
クレジットカード登録無しで Chat Completion API を使うことができたので、 あれれ?となっていましたが・・・ Image Generation API を使ってみると・・・?
OpenAI Developer のアカウントっていつクレジットカードを登録するんだろう?
本日は ChatGPT のアカウントではなく、 OpenAI Developer Platform のアカウントについてです。 クレジットカードを登録しなくても API キーを発行できるようで、 しかも使えているっぽい気がします。 いつかのタイミングで請求されるんですかね?謎です。
クリスマスですね! 今年のサンタさんは高難易度でした。 無事に子どもの元へ届けることができ、今年の勤務は終了となります。 お仕事の方はあと2日間ですね! なんか、要件が深く練られておらず、最後の最後まで振り回されそうな感じがします。 それは置いといて、Tello のカメラで遊びます!
さて、約1週間ぶり?の投稿です! 結局、私自身も高熱が出てしまいました。 インフルの検査自体は陰性だったのですが、家族が2名インフルってことで、インフルとして処理されました。 結局なんだったんでしょうね?眼痛・充血も家族の中で私だけの症状でしたし。 もう前回何やってたか忘れちゃいますね。 本日は、ようやく Tello からの映像を画像化することができました!
家族がインフルエンザになり、寝かしつけや食事作りなどの家事をする時間が長くなり、時間調整が上手くできなくなるためしばし休憩です。 そんな中、自分は左目だけが痛く、点眼薬を貰いましたが、 右目も痛くなってきたのでウィルス性の可能性が・・・。
昨日、Tello から 8890 ポートを介してステータスを得ることができたので、 意気揚々と、DJITelloPy 使うぞーと思った矢先・・・ 悲しい出来事が・・・
エラーの原因:Tello からステータスを得ることができない調査 (2)
DJITelloPy 以前に、Tello からステータスが取れていないことがわかり、 ある環境では動き、ある環境では動かない。という、実行環境に問題がありそうなことまでわかりました。 Stack Overflow などには ファイアウォールを切れば・・・なんて情報もありました ので、今日はこちらから調べていきます。
エラーの原因:Tello からステータスを得ることができない調査
DJITelloPy を使うとエラーになってしまい Tello の SDK モードにすら入ることができませんでした。 原因を究明したいです
調べていると DJITelloPy というモジュールが良さそうであることがわかりました。 とりあえず実行してみようと試みましたが、 今日は、SDK モードに入る command コマンドすらも上手く行かずに全くもって動かせず断念しました・・・ このままだと数日、エラーと戦うことになりそうな雰囲気を感じています。
Wi-Fi ドングルを使って、Tello に接続中にインターネットを使用する
さて、Tello が Wi-Fi を占有してしまうということで、 2.4G 帯に接続できる Wi-Fi ドングルを購入したわけですが、 インターネットと Tello 同時に接続してみます。
さて、2重ルーター問題を解決してから2日目です。すこぶる調子が良いです。 今日は、2重ルーターについて掘り下げて調べてみました。
ここ最近、インターネットプロバイダーから提供されているモデム一体型ルーター? の 2.4G 帯のアクセスポイント がすぐに切れる状態になってしまい、電波干渉などの問題かな~?と思ってチャンネルを変えたり色々触ってましたが、どうしてもよく切れるのが直りませんでした。 (5G 帯のアクセスポイントは平気なんですけどね・・・) そこで、インターネットプロバイダーから提供されているモデム一体型ルーター? の 2.4G 帯のアクセスポイントを停止し、ブリッジモードとして使っていた市販の Wi-Fi ホームルーター の 2.4G 帯のアクセスポイントを有効にしてみよう。 そう思ったのが 2重ルーター問題の…
Tello は Wi-Fi 親機 となり、PC や iPhone から 直接 Tello に Wi-Fi 接続します。 この Wi-Fi 接続が厄介で・・・
昔々、元気に空を舞う小さなドローン Tello がいました。先日、色々試した結果、宙返りを頼んだところピクリとも動かず着陸してしまいました。「どうしたのじゃ、Tello よ?」 ユーザーマニュアルをちゃんと読みましたよ
Tello さんは、空中で 前方宙返りや後方宙返り、サイド宙返り をしてくれます。Python で宙返り指示をしたのですが、上手く動いてくれません・・・。 コマンドは間違えてないと思うんですけどねぇ・・・
昨日、Tello を Python から操作する実験を行っていましたが、離陸後、上手く着陸してくれませんでした。 Tello SDK 1.3 のドキュメントによると、コマンドに対するレスポンスがあるようなので、離陸コマンドや着陸コマンドのレスポンスがどうなっているのか見たいです。 socket への sendto のレスポンスを見ても意味がないと思うので、どうやってレスポンスを受け取るんだろう??
ドローン(Tello)を、知り合いからお借りしたので Python から動かしてみました 動いてはいるけど・・・なんか上手く動かせてない気がします。
今日も型定義の記事です。やっぱ型定義っていいですね。開発効率が全然違います。
失われた型定義:Decorator を設定したメソッドの型定義情報がおかしい
zako-lab929.hatenablog.com 推論・補完などが復活したんですが、この Decorator を設定したメソッドでは型定義情報が失われてしまいました。
リトライ処理をデコレーターにまとめたかったので作りました
昨日、偶然生まれた綺麗な絵 偶然生まれた綺麗な絵 昨日と今日合わせて、封筒と便箋を作って印刷しました
我が家には、クリスマスの季節は、毎年事前にサンタさんから手紙が来ます。 手紙には 何が欲しいのか返送してくれ と書かれています。 そろそろクリスマスの準備しないとなー そんなことを思いながらレターセットの準備をしようとしました。 せっかくだから今年は生成AIを用いてレターセット素材を作ろうとしたところ、 なんかメッチャ綺麗な絵が生成されたので貼ってきます。 今日はこれからレターセットを準備します。
OSC (Open Sound Control) ってなに?
昨日は、モーションキャプチャーシステム における VMCProtocol (Virtual Motion Capture Protocol) について、概要を調べました。 本日は VMCProtocol (Virtual Motion Capture Protocol) の基盤となっている OSC (Open Sound Control) について触れてみます。
VMCProtocol (Virtual Motion Capture Protocol) ってなに?
zako-lab929.hatenablog.com 昨日の記事で ThreeDPoseTracker から Send VMC Protocol を有効にして、Unity 側の Receiver で受信しました。 そもそも VMCProtocol って何ですかね?
【ThreeDPoseTracker】リアルタイムで Unity にモーションを反映してみる
さて、前回は ThreeDPoseTracker 単体で VRM ファイルを読み込み、アバターを追加しました。本日は ThreeDPoseTracker と Unity を連携します。 前に使った UniVRM も使うよ!
【ThreeDPoseTracker】VRM を読み込んでもらう
昨日、ThreeDPoseTracker を触りましたが、超絶簡単に単体動作しました。 今日は、とりあえずアバターをデフォルト以外にしてみます。あとハマったこと
【モーションキャプチャー】特別なデバイス無しに使えそうな ThreeDPoseTracker を触ってみる
色々キーワードを調べましたが、とりあえず触ってみないことには何もわかりません。 とにかく手軽そうだった ThreeDPoseTracker を触ってみようと思います
フルトラッキングに興味があってモーションキャプチャーを調べたところ デバイスの価格が高く手軽に試すにはちょっと・・・ となることがわかりました。 目的は Unity にリアルタイムで反映させること です ということで、なるべく 無料 で 特別なデバイスは不要 で 手軽に 実現できないか調べました。 実際に調べてみると「VRChat」で使用するケースが多く見受けられ、なかなか期待する情報に辿り着くのが難しい印象でした。基本的には Web カメラ を用いて姿勢推定 で モーションデータを得る アプリケーションになるようです。
Sony の mocopi のようにモーションキャプチャーをすることができるアイテムについて調べてみました。 最終的には Unity などで利用可能なモーションデータを作りたい。もしくはリアルタイムで反映させたいです
【FullCalendar x React】任意の付加情報を設定できるか調べた
予定に対して、タイトルとか以外に付加情報が設定できるか調べました 具体的には、 予定をクリックしたときに React Router を使って別のページに遷移させるための情報が欲しかったのがキッカケです。
【FullCalendar x React】まだ表現したいことがあった!予定に色を設定したい!
登録できて、削除できて、編集できて、移動できて、 これで調べることないかなーって思ってたのですが、まだありました・・・。 予定毎に色を付けたい! 正確に言うと予定の種類毎ではありますが・・・ 登録、削除、編集、移動 の記事は以下に貼っておきます。 今回は、予定の色を変えたいだー。
【FullCalendar x React】登録済みの予定をドラッグ&ドロップで移動できるようにする
サッと予定を移動できるようにする! zako-lab929.hatenablog.com 昨日の記事では、プログラム上で日付を変えましたが、ドラッグ&ドロップで視覚的直感的に予定を移動できるようにします。 これもたった1つ設定を追加するだけで可能になります。
【FullCalendar x React】登録済みの予定のタイトルなどを変更する方法を調べる
昨日は 予定をクリックして削除 を行いました。本日は、削除ではなく編集を試みようと思います。 タイトル、開始日時、終了日時などを変えることを目標にします
【FullCalendar x React】登録済みの予定を削除します
zako-lab929.hatenablog.com こちらの記事で登録した予定を削除します。 日にちの 空欄をクリックすると予定を登録 できて、登録済みの予定をクリックすると削除 できるような基本的な動きを目指します。
【FullCalendar x React】予定をたくさん追加するとカレンダー枠が長くなる問題を解決できた
昨日 予定を登録できるようにした ところ、 予定を 追加しすぎるとカレンダーデザインが崩れる ことを発見しました。 今日は 登録済みイベントの削除や編集 みたいなことをやろうとしてましたが、 たくさん予定が登録されている場合の対策をしたいです。 この解決方法は、既にモジュール側に用意されていました!
【FullCalendar x React】ユーザーアクションをできるようにする
FullCalendar の続きです 今日は React の FullCalendar で、カレンダーに予定を登録できるようにしていきます
とりあえず FullCalendar をセットアップしてみる
カレンダーの画像は上手く生成できないんですかね? zako-lab929.hatenablog.com 昨日調べたカレンダーモジュールのうち FullCalender をセットアップしてみます。
Google カレンダーほど高機能は求めていないがとりあえずカレンダー機能を実装したいのでモジュールを探した
イメージとしては、カレンダーの枠をクリックすると予定を入れられる程度のものを考えています まずは、モジュールがないか探していきます。 フレームワークは React を採用しています。
Material UI の Theme のカラーパレットと Snackbar の variant の色を一致させたい
zako-lab929.hatenablog.com 先日、Snackbar の色変更の設定をしました。しかし、これは Theme で設定しているカラーパレットとは異なる色です。 variant プロパティ notistack.com notistack では5種類のバリアントが用意されています。 variant 設定した Snackbar デフォルトのカラーを使用しているため、一見、カラーパレット同様の色が表示されているように見えます。 わかりやすいようにカラーパレットを設定します const theme = createTheme({ colorSchemes: { light: { pa…
Google Drive の Snackbar みたいにファイル削除後に元に戻すの動きを実現してみる
ユーザーアクションのついた Snackbar を実装します。 ふと、Google Drive の Snackbar みたいなものを表現してみようと思いました。 ちなみにこれは Notistack の Snackbar の機能ではなく、Material UI の Snackbar でもできるみたいです。
「トランジションを表現する画像」とのこと 今日も Snackbar です。デフォルトはスライドインでしたが、なんかうるさく感じてしまい変更したくなりました。
AI が考える今日のスナックバー デフォルトだと黒色で左下に出てきますが、変更方法を調べました zako-lab929.hatenablog.com 導入方法は、前回の記事をご参照ください。 ちなみに、アイキャッチ画像は、前回のプロンプトの続きで、デザインを変えてくださいとお願いしました!
React で積み重なる Snackbar を簡単に実装する (Material UI 使用)
「スナックバー」の画像の生成を依頼したら、まぁこうなりますよね アイキャッチ画像はこのまま採用するとして、右下とかにポコっと出てくるアレです。 実際に実装しようとしてコンポーネントを探していたわけなのですが、Material UI のドキュメントを読んでいて Thirdparty Module の紹介があったため使用させていただきました。
Free React Template (Dashboard) の Theme を追ってみる (2)
zako-lab929.hatenablog.com 続きです。
Free React Template (Dashboard) の Theme を追ってみる
Custom Theme は何度か見たことがある程度で深くは追ったことがないです
Material UI の Free React Template (Dashboard) を使う際にハマったこと
Material UI に優秀そうな Free Template を見つけたので使おうとしたらすぐに使えなかったので記事になりました
私はよく Next.js を使っているので、自動的にルーティングをしてくれます。 React を使用する場合は、自分でルーティングモジュールを入れなくてはいけません。 偶然 React Router を試す機会があったのでメモ記事です。
zako-lab929.hatenablog.com さて、LINE Notify は置いといて、上記記事において Assume Role を実施するために必要なものの準備編です。
notify-bot.line.me 悲しみです。 手軽に LINE に通知を送ることができる LINE Notify が 2025/03/31 に終了してしまうそうです。
Docker コンテナ起動時に AssumeRole を実行してからメインコマンドを動かしたい
zako-lab929.hatenablog.com 昨日、Docker コンテナ起動時に前処理を実行しました。 本当にやりたかったのはウェイトではなく AssumeRole です。 AssumeRole が何か についてはこの記事では書いていません。
例えば、DB や Redis など特定のリソースが起動するまで待ってからメインのアプリケーションを起動したいときなどです。
ENTRYPOINT と CMD について、 どちらも同じようなコマンドが指定されていたり指定されていなかったり意味がわかりません。 この、Docker コンテナ起動時に自動的に実行されるコマンドについて、いまいちよくわからないので調べてみました。
docker networkというコマンドがあり色々見れるみたいです $ docker network --help Usage: docker network COMMAND Manage networks Commands: connect Connect a container to a network create Create a network disconnect Disconnect a container from a network inspect Display detailed information on one or more networks ls List ne…
異なる docker-compose 間で MySQL にアクセスするには?
昨日は docker-compose.yml 1つ に コンテナを2つ という構成でしたが、本日は docker-compose.yml が2つです。 イメージ図
Docker コンテナ間で MySQL にアクセスするには?
1つのコンテナ内に アプリケーション と MySQL Server を同居させるのではなく、 アプリケーションコンテナから、別のコンテナ内の MySQL Server にアクセスする感じです。 イメージ図 こんなのをイメージしています。
コードブロックの表現に Highlight.js を使用する
このブログではシンタックスハイライトを表現するのに CSS を上書きしまくってなんとなく表示できるようになっています。 Highlight.js を使用しているつもりなのですが、上手く反映していたりしていなかったりしているのです。 YAML のコードブロックのキャプチャ いつも思ってはいたんですが、黒が濃いのと白が強いんですよね・・・ 今回は、シンタックスハイライトの見直しをするついでに記事にします。
以下のエラーが出てしまいます $ mysql -u root -p Enter password: ERROR 2002 (HY000): Can't connect to local MySQL server through socket '/var/run/mysqld/mysqld.sock' (2) 調べます...
こちら読み終わりました! (function(b,c,f,g,a,d,e){b.MoshimoAffiliateObject=a; b[a]=b[a] function(){arguments.currentScript=c.currentScript c.scripts[c.scripts.length-2];(b[a].q=b[a].q []).push(arguments)}; c.getElementById(a) (d=c.createElement(f),d.src=g, d.id=a,e=c.getElementsByTagName("body")[0],e.appen…
Dockerfile 作ってるときってとりあえずコンテナを起動しっぱなしにしたいよね
FROM python:3.11.10-slim-bullseye WORKDIR /app COPY ./app . ENTRYPOINT ["python", "app/main.py"] 例えば、main.py が動かなかったときにコンテナに潜ってどういう構成になっているか見たいですよね
Dockerfile.jetty-alpine を立ててみる
前回までのあらすじ plantuml 2024-09-20 13:32:09.000:INFO:docker-entrypoint:jetty start from /var/lib/jetty/jetty.start plantuml [0.008s][warning][os,thread] Failed to start thread "GC Thread#0" - pthread_create failed (EPERM) for attributes: stacksize: 1024k, guardsize: 4k, detached. plantuml # plantum…
PlantUML Server がエラーになるのはベースイメージが変わったせいでは?
zako-lab929.hatenablog.com PlantURL のバージョンが上がってリッチになったからと思っていたが・・・
Docker で立てていた PlantUML Server が立たなくなってしまいました
Docker コンテナを整理していて、いざ再度立てようとしたら立たなくなってしまいました エラー内容はこんな感じです。 plantuml 2024-09-20 13:32:09.000:INFO:docker-entrypoint:jetty start from /var/lib/jetty/jetty.start plantuml [0.008s][warning][os,thread] Failed to start thread "GC Thread#0" - pthread_create failed (EPERM) for attributes: stacksize: 10…
とうとう 4K ディスプレイを買ってしまいました 4K ディスプレイもですが、何より ディスプレイアーム!! 何故、今まで導入していなかったんだ!! と悔やまれます。
実行例、最近変わった? GitHub の README を見ていると以下のようになっています $ fastapi dev main.py あれ?こんなんでしたっけ?
本日は Python の FastAPI framework の構築メモです Vue.js や Nuxt.js, Next.js など Web Frontend F/W を使うときは、 基本的なディレクトリ構成は完成した状態でプロジェクトが作られる のに対し、 FastAPI は main.py があれば出来てしまうくらい小さな構成からスタートだったので、一般的にどういった形になるのかを調べた記録です。
昨日の asyncio 続きです。 zako-lab929.hatenablog.com
全然わからなくて、急遽 Python の非同期処理について調べました docs.python.org asyncio モジュールで可能なようです。
昨日インポートした VRM を深堀りして見てみようと思います zako-lab929.hatenablog.com
この記事では Unity に VRM をインポートします VRM は以前、以下の記事で使用した VRM ファイルを使用します zako-lab929.hatenablog.com
Starter Assets で Unity-chan を動かす
Scene ビュー / Game ビュー Starter Assets では、左の画像のようにロボット君がデフォルトで動かせると思います。 このロボットを Unity-chan に切り替えるのがこの記事の目的です
Unity : Starter Asset が2種類あってよくわからない
3D ゲームなどを作るときにまずインストールするであろう Starter Assets。この前見たら2種類あって困った Starter Assets スターの数及びハートの数 だけで見ると、左のアセットを使えば良いのかな?となります。 リリース日や対応している Unity バージョンを確認すると右のアセットの方が新しいようです
Unity-chan はデフォルトだとピンク色になってしまう
久々に Unity-chan をインポートしてみてこう思いました。 あれ?Unity-chan ってピンク色からスタートだったっけ?? 久々すぎて全く覚えていません。 最初にシェーダーの解決必要でしたっけ?
1回 Unity の WebRequest に戻ります。 zako-lab929.hatenablog.com さて、長い間やってないと忘れてしまいます・・・。 スキマ時間にちまちま書いてたものがようやく形になりました! 現在、 UnityWebRequest を Async Task にしている状態 です。 UnityWebRequest で SendWebRequest をした後 に、 リクエストキャンセルをできるようにしたい と思います。
昨日に引き続き Blender ネタです Blender では、 デフォルトでは VRM 形式のモデルをインポートすることができません。 VRM をインポートするためには アドオンのインストールが必須 となります。
Blender を複数バージョン管理できる Blender Launcher をインストールする
ふと Blender Launcher をインストールする機会がありました のでメモがてらの記録になります。
corkborg 産の WD14Tagger と kohya-ss 産の WD14Tagger の比較!
kohya-ss 産 corkborg 産 どちらかというと スクリプトの違いよりモデルの違い の方が影響が強いと思いますが、両方使えたので残しておきましょう! モデルの切り替え方もメモっとこう
corkborg 産の WD14Tagger も使用してみる
zako-lab929.hatenablog.com kohya-ss 産 WD14Tagger を使用してみましたが、 先日の調査によると、他にもコマンドラインから使用できるようにしてくれている方がいました。 先日の調査 zako-lab929.hatenablog.com 本日は corkborg/wd14-tagger-standalone を使ってみようと思います!
WD14Tagger と DeepDanbooru の出力結果を比較する
上記の記事では、昨日、一昨日と WD14Tagger を試しています。 本日は、以前試した DeepDanbooru と比較してみます。 また、DeepDanbooru の出力は以下の記事で試しています。 昨日の段階では全然気づきませんでしたが、横に並べてみると WD14Tagger の情報量の多さに驚きます
kohya-ss 産 WD14Tagger の出力結果をいつものようにまとめました
zako-lab929.hatenablog.com 昨日の記事にて kohya-ss 産の WD14Tagger を Google Colab で使用しました。 本日はいつものように画像と出力タグを一覧化します。 今までにない特徴としては出力結果に「zundamon」が含まれていることですかね
「ブログリーダー」を活用して、ちびジャコさんをフォローしませんか?
前回の関連記事 昨日、マルチプレイ設定が知らぬ間に反映し、できるようになっていました。 全然できなかったのに急にです。 時間が解決してくれた可能性がありますが、 昨日、寝る前に 再びマルチプレイはブロック状態 にしておきました。 そして今日...
マルチプレイが無効になっています こんばんは! 再び1ヶ月ぶりです! お仕事の方は相変わらず忙しいです! それは置いといて、私は、CoderDojo という 子どものための非営利プログラミング道場 でメンターをしているのですが、 Dojo に来ているマイクラ勢の子たちに触発されて、我が家の子どももマイクラやりたい!!になりました。 自分用のアカウントは1個ありますが、もう1個買う必要があるな・・・と。 そして、買ったはいいものの、マルチプレイで問題が・・・
こんばんは! 1ヶ月ぶりです! お仕事の方が非常に忙しくなり、記事を書いている時間がなくなりました! なるべく書きたいとは思っているので、週1でも月1でも頑張りたいと思います! そんな中、たくさんインプットはしているので、インプットした情報をメモしておくために Obsidian っていうメモアプリを導入してみました。 Evernote とか Joplin とか色々なメモアプリを試していますが、ナレッジグラフに惹かれて Obsidian にしてみようと思いました!
前回の関連記事 Web コンソール便利すぎでしょ
前回の関連記事 ハッカソンではメンターもやってたので、AppSync について聞かれました。使ったことないサービスだったので調べました。
AWS のリソースを構築する際にいつも手でポチポチやっていますが、 ふと Cognito くらいならユーザープール作るくらいだし。って思って、terraform をちょっと調べて使ってみました。 せっかくなので、調べたことをまとめました。
こんばんは 昨日、一昨日と社内のハッカソンに参加していました。 無事にプレゼンもいっぱい笑っていただき一安心です。 さて、一時期ドローンの記事を書いていましたが、 つい1週間前まで使うか使わないかも決まってない状態でしたが、 無事にハッカソンで活用することができました。 また、今回は使わなかったですが VMC Protocol に近いところで、姿勢推定を使いました。 もともとモーションキャプチャーや姿勢推定などその辺を使いたいなーって思っていたので、 コンセプトは変わらず、希望通りの技術を使うことができました。 過去記事まとめです
前回の関連記事 カスタムノードを実装してみます!
前回の関連記事 前回、上記で API を作って Frontend から叩いたところエラーになり、https 化して解決しました。今回は http(s) の話は置いといて、API サンプルの作り方をメモしておく記事です。
前回の関連記事 UART を利用するデバイスの事前準備として、「汎用シリアルポート設定をしてください」 となっていました。 このあたり、全然詳しくないのですが・・・ UART とは何なのか?UART と汎用シリアルポートの関係は?
Raspberry Pi Zero 2 で Node-RED を使って立てた API を Frontend から叩いてみたらエラーが出ました。 Mixed Content: The page at 'https://**********/' was loaded over HTTPS, but requested an insecure resource 'http://192.168.1.13:1880/hello'. This request has been blocked; the content must be served over HTTPS. さてさて原因は?
前回の関連記事 3.3V ピンは、常に 3.3V の電圧が掛かっているようですが、 GPIO ピンはプログラムから電圧を掛けるか掛けないかを制御できるようです。 本日は GPIO を使って、Python から LED を制御します
Lチカ回路 (ボタン付き) 前回の関連記事 本日はボタンをポチポチできるようにしてみましたよ ボタンによって LED を付けたり消したりする ブレッドボード: x1 LED: x1 抵抗 (1kΩ): x1 ジャンパーワイヤー(オス - メス): x2 ボタン: x1 Lチカ回路 (ボタン付き) ボタンを押していない状態だと、電流は LED の方には流れていませんが、 ボタンを押すことで、ボタンの左側の足に電流が流れるようになります。 その先は、昨日の Lチカ回路と同じです。 何も考えずに電源を入れる まずは何も起きません! ボタンをポチッとすると LED が光ります! まとめ 初めてボタンを…
前回の関連記事 本日は、とりあえずLチカしてみましたよ
zako-lab929.hatenablog.com 前回、OS を書き込んで起動するところまで確認しましたが、起動した後に何も操作できずに詰んでました。 本日は、USB micro B の USB ハブが届きましたので、作業を少し進めておきます Raspberry Pi OS の初期設定について Raspberry Pi OS の初期設定 ホスト名の設定 だったり ユーザーの設定 , Wi-Fi の設定などができるようです。サービスからは SSH の設定ができます。 Wi-Fi の設定は GUI から行おうと思ったので OFF にしておきました。 設定値 設定値 チェックボックス メモ ホス…
2025年1月8日にリリースされた Stability AI の image-to-3D model です。 記事によると Stability AI Community License に基づき商用および非商用の両方で無料で使用できます。とのことです。
さて、Raspberry Pi Zero 2 向けの USB ハブをポチりましたが、まだ届きません。 仕方ないので、今日は OpenAI API の Function calling を試してみます
やりたいことが多すぎて時間が全然足りません。 ちょっとやりたいことがあったので Raspberry Pi Zero 2 WH 購入しました。 (function(b,c,f,g,a,d,e){b.MoshimoAffiliateObject=a;b[a]=b[a] function(){arguments.currentScript=c.currentScript c.scripts[c.scripts.length-2];(b[a].q=b[a].q []).push(arguments)};c.getElementById(a) (d=c.createElement(f),d.sr…
Google Colab でシークレットを登録できることを知ったので、 OpenAI の API キーをシークレットに登録して使ってみました。
「補助型」と「自律型」といったところで「AI エージェント」という言葉が曖昧だったので、書籍で情報を得たり、調べたりしました。
偶然ですが、 AnimateLCM を触っていて気付いたことがあります。 「 LCMScheduler 大事!」 たぶんこれは、 AnimateDiff だけじゃなくて LCM 系で重要な気がしてきます。 他の LCM はまだ触っていないので知らんけど 少なくとも diffusers v0.22.0 で紹介されていた LCM のモデルでは LCMScheduler が使われていそうでした。
今回は比較回です。 AnimateLCM は少ないステップ数で高品質な画像が出力できるということですので、 ステップ数を「4」に固定して比較してみます。 テスト番号 MotionAdapter AnimateLCM LoRA 備考 1 wangfuyun/AnimateLCM 有 前回の記事と同じ 2 wangfuyun/AnimateLCM 無 3 guoyww/animatediff-motion-adapter-v1-5-2 有 4 guoyww/animatediff-motion-adapter-v1-5-2 無 普通の AnimateDiff と同じ 比較パターンはこんな感じ?
この記事では AnimateLCM に触れていきます。 LCM は初めて登場するキーワードですが、併せて調べていきます。 リリースノートの一番上にあったけど既読スルーしてたやつ
Stable Diffusion を使うときに Seed という言葉が出てくると思います。この Seed は出力ごとに異なり、予め Seed を指定しておくことで (同じ条件であれば) 出力を固定することができます。 逆に Seed を指定しなければ、同じ条件でも、いつもランダムな出力になります。 今回は、この「ランダム出力」でも とりあえず Seed を設定しておこう というマイブームな記事です。
zako-lab929.hatenablog.com 前回の記事では FreeInit というものを有効にして AnimateDiff を出力してみました。この記事では FreeInit を有効にしたときと無効にしたときとでどう変わるのか比較してみようと思います。 また、 enable_free_init() には method という引数があり、出力が変わりそうなので触ってみようと思います。
AnimateDiff のドキュメントの中に Using FreeInit という項目があります。 FreeInit is an effective method that improves temporal consistency and overall quality of videos generated using video-diffusion-models without any addition training. It can be applied to AnimateDiff, ModelScope, VideoCrafter and various other video …
モーション LoRA は複数を組み合わせて使うことが可能なようです。 例えばズームアウトとスライドを組み合わせて使う感じ この記事では、再び AnimateDiffPipeline を使い、モーション LoRA を組み合わせて使ってみます。
AnimateDiffPipeline で Text-to-Video をしていましたが、 AnimateDiffVideoToVideoPipeline を使うと Video-to-Video ができるようになります。 huggingface.co これは Hugging Face のドキュメントに使用方法が載っていましたので触ってみます。
AnimateDiff をたくさん調べてて見つけた https://animatediff.github.io にいた猫が可愛すぎたので マヌルネコ LoRA を使ってみました。 この記事では AnimateDiff は触りません! ぬこを触ります!! 使用したモデル等は以下になります。 ・リアル系モデルから yayoi_mix ・イラスト系モデルから MeinaMix ・そして マヌルネコ LoRA それでは、、、 猫まみれ~
前回 、前々回 と beta_schedule="linear" を付与した状態出力しました。これは出力画像を鮮やかに出したかったからです。 今回は timestep_spacing="linspace" のパラメータを使ったり使わなかったり、 beta_schedule="linear" のパラメータを使ったり使わなかったりして比較してみようと思います。 パラメータのパターンは以下のように考えています。 テストケース番号 timestep_spacing beta_schedule 備考 1 未設定 未設定 2 linspace 未設定 リリースノートと同じ 3 未設定 linear 前回の…
zako-lab929.hatenablog.com 前回の記事では ToonYou のモデルを使用して、 AnimateDiff を実行する際のスケジューラーのパラメータを調整しました。 この記事では更に別のモデルも試してみます。 いつもの MeinaMix で!
zako-lab929.hatenablog.com 前回の記事で以下のようなことを書きました。 でも、もうちょっとdiffusers v0.15.0 の Text-to-Video Zero を Google Colab で使ってみる - ジャコ Labの時みたいに、おぉーー!!っていう感じのが出てほしいな。スケジューラの問題?GitHub 版も試してみようかな? 理由としては、以下のように低画質な感じなところです。 前回出力した ToonYou の AnimateDiff これはこれで味があって良いと思いますが、ギャラリーにあるようなもっと彩度の高いものが出したいです。 こんな感じのやつ …
前回、LoRA で「PEFT backend is required for this method」なエラーにハマりましたが、無事にこの記事に進めるようになりました。 Motion LoRA (モーション LoRA) で何ができるかというと、 AnimateDiff にズームインやズームアウトなどの動きを加えることができます。 早速使ってみようと思います。
/usr/local/lib/python3.10/dist-packages/diffusers/loaders/lora.py in load_lora_weights(self, pretrained_model_name_or_path_or_dict, adapter_name, **kwargs) 105 """ 106 if not USE_PEFT_BACKEND: --> 107 raise ValueError("PEFT backend is required for this method.") 108 109 # if a dict is passed, copy i…
github.com diffusers v0.22.0 でサポートされた AnimateDiffPipeline を使って、 AnimateDiff を使ってみます。 まずは、リリースノートにある通りのプログラムを実行してみます。
前回の記事までで GLIGEN (Grounded Language-to-Image GENeration) を使ってみましたが、GLIGEN を使用するときは バウンディングボックス が必要となります。 (矩形 や 枠 と記載したりもしているので文言は定まってませんが...) バウンディングボックスを可視化したもの バウンディングボックスは 左上のXY座標 と 右下のXY座標 の4つの値で成り立っています。 [x1, y1, x2, y2] という感じです。 この記事では、Python でバウンディングボックスの座標をマウスのドラッグ&ドロップで取得していきます。
zako-lab929.hatenablog.com zako-lab929.hatenablog.com 前回の記事までで StableDiffusionGLIGENPipeline 及び StableDiffusionGLIGENTextImagePipeline を使ってきました。 後者の StableDiffusionGLIGENTextImagePipeline は、 もう1個使用例があったのですが、やや分かりづらかったので記事を分割してしまいました。 この記事では もう1個の使用例 GLIGEN でスタイルも指示するパターンを見ていきます。
zako-lab929.hatenablog.com 前回の記事では StableDiffusionGLIGENPipeline を用いて diffusers で GLIGEN (Grounded Language-to-Image GENeration) を試しました。GLIGEN は、バウンディングボックスとキャプションを用いて、枠に意味を持たせて Text-to-Image をするものでした。 この記事では StableDiffusionGLIGENTextImagePipeline を用いて、文字列によるキャプションの代わりに画像によるキャプションを試してみます。
help.hatenablog.com ぐぬぬ。。。 もっと早く知りたかったです。 いつも Markdown で書いているのですが、特殊なものを出すときは、いつも別タブで「雛形用の下書き」を開きに行ってからコピペしてました。。。 もっと早く知りたかったです。 (大事なことなので2回)
github.com diffusers v0.20.0 で対応された GLIGEN (Grounded Language-to-Image GENeration) を試してみます。 GLIGEN はバウンディングボックスとその矩形に対するキャプションを用いて、プロンプト+キャプション付き矩形で Text-to-Image を行うようです。