メインカテゴリーを選択しなおす
#Python
INポイントが発生します。あなたのブログに「#Python」ハッシュタグのバナーを掲載しませんか ハッシュタグのバナーやリンクをINポイントランキングの対象にしたいメンバーの方は、ログインしてからリンクタグを取得してください ・バナーを変更したい場合は、必ず画像に「ハッシュタグ」または「タグ」の文字かバナーロゴを重ねてください
タグをコピーしました
シンプルに進化!Pythonで辞書をクラスへステップアップ
1. はじめに イントロダクション プログラミングの学びを進めていくと、コードがシンプルだった初期段階から、次第にデータや処理が複雑化してくる場面に直面することがあります。特に、辞書を使ってデータを管理していると、最初は便利に感じても、だん
2024/08/28 20:52
Python
フォローできる上限に達しました。
新規登録/ログインすることでフォロー上限を増やすことができます。
フォローしました
リーダーで読む
2024年8月28日 第6544回 ナンバーズ3 最新最強AI予想
2024年8月27日 第6543回の結果 当選番号 376 100桁 7 (2) , 5 (0) , 4 (9) 10桁 8 (3) , 6 (1) , 9 (4) 1桁 4 (9) , 1 (6) , 8 (3) ※カッコ内は裏数字 1-2-1のラインでボックスニア!! 2024/8/27 第6543回 #ナンバーズ3 の予想結果#当選番号 376 🔈結果:1-2-1のラインで #ボックスニア !! 100桁 △,✕,+1 10桁 +1,△,✕ 1桁 ✕,✕,✕ ○● 完全一致 △▲ 桁違い一致 × 不一致 https://t.co/OMbvaJE0WA — ナン
2024/08/27 21:12
【入門】モーメンタム③【数値計算】
モーメンタムの更新式について確認。 指数移動平均を利用して直近の値を重視する。 モーメンタムの動作イメージについて確認。 最初は大きく更新して、最適解が近いと小さく更新。 勾配降下法で言うところの学習率が可変と同義な動きになる。
2024/08/27 20:18
【入門】モーメンタム④【数値計算】
モーメンタムを確認するプログラムの方針を確認。 以前の勾配降下法のプログラムをベースにする。 隠れ層のユニット数は4。 プログラムのフローを確認。 モーメンタム項とパラメータ更新が基本的な差分となる。
MATLAB,Python,Scilab,Julia比較 第4章 その97【モーメンタム⑦】
最適化アルゴリズム モーメンタムを用いて分類の学習をMATLABで実現。 問題無く動作。 学習の収束が通常の勾配降下法よりも比較的早い。
2024/08/27 20:17
MATLAB,Python,Scilab,Julia比較 第4章 その98【モーメンタム⑧】
最適化アルゴリズム モーメンタムを用いて分類の学習をPythonで実現。 問題無く動作。 学習の収束が通常の勾配降下法よりも比較的早い。
MATLAB,Python,Scilab,Julia比較 第4章 その99【モーメンタム⑨】
最適化アルゴリズム モーメンタムを用いて分類の学習をScilabで実現。 問題無く動作。 学習の収束が通常の勾配降下法よりも比較的早い。
MATLAB,Python,Scilab,Julia比較 第5章 その23【重要な極限値①】
重要な極限値について説明。 sin(x)/xのxを0に近づける極限値。 まずは円に接する三角形と扇形に着目する。 これが先ほどの極限値にどうつながるかは次回。
「ポプらむ☆キウイ」フォント
小学館の雑誌「サライ」 [1] の最新号 2024年 9月号の大特集、 「漢字」に遊ぶ を大変興味深く読みました。特に、石川祐基さんが案内する記事「町の漢字看板を楽しむ」(44 ページ)に触発され、自分も町を歩いて看板の文字を楽しんでみたくなりました。 さらに、今は...
2024/08/27 16:54
2024/08/26 23:48
MATLAB,Python,Scilab,Julia比較 第4章 その100【モーメンタム⑩】
最適化アルゴリズム モーメンタムを用いて分類の学習をJuliaで実現。 問題無く動作。 学習の収束が通常の勾配降下法よりも比較的早い。
MATLAB,Python,Scilab,Julia比較 第4章 その101【モーメンタム⑪】
最適化アルゴリズムを通常の勾配降下法からモーメンタムに変えた際の差分を確認。 モーメンタムの方が学習の収束が早い。 勾配降下法で500エポックのところ100エポック。 モーメンタムの場合、初期のパラメータ移動が大き目。 これにより、大域最適化を見つける可能性が高くなる。
【入門】モーメンタム(MATLAB)【数値計算】
2024/08/26 23:47
【入門】モーメンタム(Python)【数値計算】
【入門】モーメンタム(Scilab)【数値計算】
MATLAB,Python,Scilab,Julia比較 第5章 その22【三角関数積和公式②】
sin,sinの積和公式を導出。 積和公式をフーリエ係数に向けて変形。 α,βをαx,βxにするだけ。
2024年8月27日 第6543回 ナンバーズ3 最新最強AI予想
2024年8月26日 第6542回の結果 当選番号 900 100桁 1 (6) , 2 (7) , 3 (8) 10桁 0 (5) , 4 (9) , 6 (1) 1桁 8 (3) , 3 (8) , 6 (1) ※カッコ内は裏数字 完全一致×1 2024/8/26 第6542回 #ナンバーズ3 の予想結果#当選番号 900 🔈結果:完全一致×1 100桁 ✕,✕,✕ 10桁 ○,✕,✕ 1桁 ✕,✕,✕ ○● 完全一致 △▲ 桁違い一致 × 不一致 https://t.co/ktnVE54rYD — ナンバード (@num3_AI) August 26, 202
2024/08/26 21:15
【入門】モーメンタム(Julia)【数値計算】
2024/08/25 20:15
【入門】モーメンタム(勾配降下法との差分)【数値計算】
MATLAB,Python,Scilab,Julia比較 第4章 その102【最適化アルゴリズム①】
もう一個試す予定の最適化アルゴリズムへ至る系譜を説明予定。 プログラム化して試すのはAdamだが、それに至るアルゴリズムを数式レベルで確認。 Adam以降の最適化アルゴリズムもあるが、基本はAdamベースでクリッピングが入ってる感じ。
MATLAB,Python,Scilab,Julia比較 第4章 その103【最適化アルゴリズム②】
AdaGradについて説明。 更新式をモーメンタムと比較。 更新幅は、最初は大きく、徐々に小さくなり、最終的には学習が進まなくなる欠点を抱えている。
MATLAB,Python,Scilab,Julia比較 第5章 その21【三角関数積和公式①】
三角関数の加法定理の組み合わせで積和公式が導出できる。 sin,cosの積和公式とcos,cosの積和公式を導出してみた。
2024/08/25 20:14
MATLAB,Python,Scilab,Julia比較 第5章 その20【三角関数加法定理】
三角関数の加法定理を確認。 偶関数、奇関数を利用すると、βにマイナス符号が付いた加法定理の式も導出できる。
2024/08/25 03:05
MATLAB,Python,Scilab,Julia比較 第4章 その104【最適化アルゴリズム③】
RMSpropについて説明。 AdaGradの完了版であるため、AdaGradと更新式を比較。 AdaGradでは2次の勾配の累積だったものが、2次の勾配の指数移動平均に。 これにより、極小値近辺やプラトーになっても更新を続けられる。
2024/08/24 00:08
MATLAB,Python,Scilab,Julia比較 第4章 その105【最適化アルゴリズム④】
AdaDeltaについて説明。 RMSpropの拡張版に当たる。 学習率というハイパーパラメータ無しで動作する。 最終的な学習率は1近傍になるため振動しやすいらしい。
MATLAB,Python,Scilab,Julia比較 第4章 その106【最適化アルゴリズム⑤】
最適化アルゴリズムAdamについて説明。 モーメンタムとRMSpropの合わせ技。 1次の勾配と、2次の勾配の指数移動平均を使用する。
MATLAB,Python,Scilab,Julia比較 第4章 その107【最適化アルゴリズム⑥】
各最適化アルゴリズムの依存関係を記載。 1次の勾配で勢いをつけて、2次の勾配で抑制するというのが全体を通しての共通点。 Adamが1次の勾配と2次の勾配を合わせたアルゴリズムとなる。
MATLAB,Python,Scilab,Julia比較 第4章 その108【最適化アルゴリズム⑦】
Adamの更新式を実現するためのプログラムフローを記載。 モーメンタムの部分をAdamに差し替えただけ。 学習率は0.001とかなり小さめの値に設定。 これにより収束は遅くなる。 かわりに特殊な最適解が得られるのでそれを確認する。
2024/08/24 00:07
【入門】最適化アルゴリズム①【数値計算】
もう一個試す予定の最適化アルゴリズムAdamへ至る系譜を説明予定。 AdaGradについて説明。 更新式をモーメンタムと比較。 RMSpropについて説明。 AdaGradの完了版であるため、AdaGradと更新式を比較。
MATLAB,Python,Scilab,Julia比較 第5章 その19【関数の内積】
前回までの数式パズルの力業的解法と関数の内積はほぼ同一の考え方。 関数を無限次元ベクトルを解釈すると、関数の内積は関数の積の定積分として表現される。
2024年8月26日 第6542回 ナンバーズ3 最新最強AI予想
2024年8月23日 第6541回の結果 当選番号 067 100桁 9 (4) , 6 (1) , 4 (9) 10桁 0 (5) , 4 (9) , 5 (0) 1桁 2 (7) , 5 (0) , 3 (8) ※カッコ内は裏数字 桁違い一致×2 ひとつ違い×2 2024/8/23 第6541回 #ナンバーズ3 の予想結果#当選番号 067 🔈結果:桁違い一致×2 ひとつ違い×2 100桁 -1,△,✕ 10桁 △,✕,-1 1桁 ✕,✕,✕ ○● 完全一致 △▲ 桁違い一致 × 不一致 https://t.co/24d5JF61NG — ナンバード (@num
2024/08/23 22:00
Pythonで世界を作ろう!クラスと継承でコーディングが楽しい
イントロダクション: オブジェクト指向って何? 「オブジェクト指向って何?」と聞かれたとき、プログラミングを始めたばかりの人にとっては少し抽象的に感じられるかもしれません。でも、実は私たちの日常生活の中にもオブジェクト指向の考え方は溢れてい
2024/08/23 13:31
2024年8月23日 第6541回 ナンバーズ3 最新最強AI予想
2024年8月22日 第6540回の結果 当選番号 801 100桁 2 (7) , 9 (4) , 8 (3) 10桁 7 (2) , 9 (4) , 6 (1) 1桁 8 (3) , 9 (4) , 2 (7) ※カッコ内は裏数字 完全一致×1 桁違い一致×1 ひとつ違い×3 2024/8/22 第6540回 #ナンバーズ3 の予想結果#当選番号 801 🔈結果:完全一致×1 桁違い一致×1 ひとつ違い×3 100桁 ✕,+1,○ 10桁 ✕,-1,✕ 1桁 △,✕,+1 ○● 完全一致 △▲ 桁違い一致 × 不一致 https://t.co/aMu2o06rx
2024/08/22 23:36
【入門】最適化アルゴリズム②【数値計算】
AdaDeltaについて説明。 RMSpropの拡張版に当たる。 最適化アルゴリズムAdamについて説明。 モーメンタムとRMSpropの合わせ技。 1次の勾配と、2次の勾配の指数移動平均を使用する。
2024/08/22 20:37
【入門】最適化アルゴリズム③【数値計算】
各最適化アルゴリズムの依存関係を記載。 1次の勾配で勢いをつけて、2次の勾配で抑制するというのが全体を通しての共通点。 Adamの更新式を実現するためのプログラムフローを記載。 学習率は0.001とかなり小さめの値に設定。 これにより収束は遅くなる。 かわりに特殊な最適解が得られるのでそれを確認する。
MATLAB,Python,Scilab,Julia比較 第4章 その109【最適化アルゴリズム⑧】
ニューラルネットワークの最適化アルゴリズムAdamをMATLABにて確認。 学習率を0.001にしている都合、収束までは時間がかかる。 勾配降下法、モーメンタムでは見れなかった分類パターンが拾えた。
MATLAB,Python,Scilab,Julia比較 第4章 その110【最適化アルゴリズム⑨】
ニューラルネットワークの最適化アルゴリズムAdamをPythonにて確認。 学習率を0.001にしている都合、収束までは時間がかかる。 勾配降下法、モーメンタムでは見れなかった分類パターンが拾えた。
2024/08/22 20:36
【入門】複雑な定積分(Scilab)【数値計算】
複雑な定積分をScilabで求めた。 同様に円周率が答えとして算出。 小数点第6位まで一緒。 Nを増やせばもっと精度は上がる。
【入門】複雑な定積分(Julia)【数値計算】
複雑な定積分をJuliaで求めた。 同様に円周率が答えとして算出。 小数点第6位まで一緒。 Nを増やせばもっと精度は上がる。
2024/08/22 20:35
Pythonコードが劇的変化!代入式で効率化マスター!
1. はじめに Python 3.8から登場した代入式で、コードがもっと効率的に! Pythonプログラミングをしていて、「このコード、もっと短くならないかな…」「同じ計算を何度もしているけど、なんだか無駄が多い…」と感じたことはありません
2024/08/21 22:51
2024年8月22日 第6540回 ナンバーズ3 最新最強AI予想
2024年8月21日 第6539回の結果 当選番号 803 100桁 2 (7) , 8 (3) , 5 (0) 10桁 6 (1) , 4 (9) , 9 (4) 1桁 8 (3) , 1 (6) , 9 (4) ※カッコ内は裏数字 完全一致×1 桁違い一致×1 ひとつ違い×1 2024/8/21 第6539回 #ナンバーズ3 の予想結果#当選番号 803 🔈結果:完全一致×1 桁違い一致×1 ひとつ違い×1 100桁 ✕,○,✕ 10桁 ✕,✕,-1 1桁 △,✕,✕ ○● 完全一致 △▲ 桁違い一致 × 不一致 https://t.co/QEj7kZ3qAN
2024/08/21 21:49
Python辞書をカスタマイズ!柔軟なデフォルト値を設定しよう
プログラミング初心者におすすめ!「スッキリわかるPython入門 第2版」 プログラミングに興味があるけれど、何から始めればいいかわからない方に最適な一冊が「スッキリわかるPython入門 第2版」です。以下のポイントを参考にしてください。
2024/08/21 10:54
zipで簡単並列処理!Pythonの無限データ攻略法
2024/08/21 10:53
MATLAB,Python,Scilab,Julia比較 第4章 その111【最適化アルゴリズム⑩】
ニューラルネットワークの最適化アルゴリズムAdamをScilabにて確認。 学習率を0.001にしている都合、収束までは時間がかかる。 勾配降下法、モーメンタムでは見れなかった分類パターンが拾えた。
2024/08/21 05:18
MATLAB,Python,Scilab,Julia比較 第4章 その112【最適化アルゴリズム⑪】
ニューラルネットワークの最適化アルゴリズムAdamをJuliaにて確認。 学習率を0.001にしている都合、収束までは時間がかかる。 勾配降下法、モーメンタムでは見れなかった分類パターンが拾えた。
MATLAB,Python,Scilab,Julia比較 第4章 その113【最適化アルゴリズム⑫】
Adamだけで出てくる分類結果を確認。 四角形で分類する理想的な形状。 この分類結果になる場合は、誤差関数の値が一気に跳ね上がる時。 これにより大域最適解を引き当てやすくなる。
2024/08/21 05:17
MATLAB,Python,Scilab,Julia比較 第4章 その114【本章のまとめ】
分類問題を扱って第4章終了。 最も原始的なニューラルネットワークをやったことでディープラーニングの基礎部分は把握できたかもしれない。 次の章はこれから考える。
MATLAB,Python,Scilab,Julia比較 第4章【バックナンバー】
はじめに MATLAB,Python,Scilab,Julia比較するシリーズの第4章。 第3章では画像処理、座標変換の話がメインだった。 第4章は分類問題関連の話がメインとなる。基本的には以下の流れとなる。 形式ニューロン 決定境界線の安
2024/08/21 05:16
【入門】最適化アルゴリズム(MATLAB)【数値計算】
【入門】複雑な定積分(Python)【数値計算】
複雑な定積分をPythonで求めた。 同様に円周率が答えとして算出。 小数点第6位まで一緒。 Nを増やせばもっと精度は上がる。
2024/08/21 05:15
次のページへ
ブログ村 651件~700件