書籍「最短コースでわかる ディープラーニングの数学」に関する【ひとり読書会】記事の記事リンク集です。一緒に勉強がんばりましょう(^-^)
タイトル | 記事 |
---|---|
まえがき |
|
1章 機械学習入門 | |
1.1 人工知能(AI)と機械学習 | (第2回) |
1.2 機械学習とは | (第2回) |
1.3 はじめての機械学習モデル | (第2回) |
1.4 本書で取り扱う機械学習モデル | (第3回) |
1.5 機械学習・ディープラーニングにおける数学の必要性 | (第3回) |
1.6 本書の構成 | (第3回) |
2章 微分・積分 | |
2.1 関数 | (第4回) |
2.2 合成関数・逆関数 | (第4回) |
2.3 微分と極限 | (第4回) |
2.4 極大・極小 | (第5回) |
2.5 多項式の微分 | (第5回) |
2.6 積の微分 | (第5回) |
2.7 合成関数の微分 | (第6回) |
2.8 商の微分 | (第6回) |
2.9 積分 | (第6回) |
3章 ベクトル・行列 | |
3.1 ベクトル入門 | (第7回) |
3.2 和・差・スカラー倍 | (第7回) |
3.3 長さ(絶対値)・距離 | (第7回) |
3.4 三角関数 | (第8回) |
3.5 内積 | (第8回) |
3.6 コサイン類似度 | (第8回) |
3.7 行列と行列演算 | (第8回) |
4章 多変数関数の微分 | |
4.1 多変数関数 | (第9回) |
4.2 偏微分 | (第9回) |
4.3 全微分 | (第9回) |
4.4 全微分と合成関数 | (第10回) |
4.5 勾配降下法 | (第10回) |
5章 指数関数・対数関数 | |
5.1 指数関数 | (第11回) |
5.2 対数関数 | (第11回) |
5.3 対数関数の微分 | (第12回) |
5.4 指数関数の微分 | (第12回) |
5.5 シグモイド関数 | (第13回) |
5.6 softmax関数 | (第13回) |
6章 確率・統計 | |
6.1 確率変数と確率分布 | (第14回) |
6.2 確率密度関数と確率分布関数 | (第14回) |
6.3 尤度関数と最尤推定 | (第15回) |
7章 線形回帰モデル(回帰) | |
7.1 損失関数の偏微分と勾配降下法 | (第17回) |
7.2 例題の問題設定 | (第17回) |
7.3 学習データの表記法 | (第17回) |
7.4 勾配降下法の考え方 | (第18回) |
7.5 予測モデルの作成 | (第18回) |
7.6 損失関数の作成 | (第18回) |
7.7 損失関数の微分計算 | (第18回) |
7.8 勾配降下法の適用 | (第19回) |
7.9 プログラム実装 | (第19回) |
7.10 重回帰モデルへの拡張 | (第20回) |
8章 ロジスティック回帰モデル(2値分類) | |
8.1 例題の問題設定 | (第21回) |
8.2 回帰モデルと分類モデルの違い | (第21回) |
8.3 予測モデルの検討 | (第21回) |
8.4 損失関数(交差エントロピー関数) | (第22回) |
8.5 損失関数の微分計算 | (第23回) |
8.6 勾配降下法の適用 | (第23回) |
8.7 プログラム実装 | (第24回) |
9章 ロジスティック回帰モデル(多値分類) | |
9.1 例題の問題設定 | (第25回) |
9.2 モデルの基礎概念 | (第25回) |
9.3 重み行列 | (第26回) |
9.4 softmax関数 | (第26回) |
9.5 損失関数 | (第27回) |
9.6 損失関数の微分計算 | (第27回) |
9.7 勾配降下法の適用 | (第27回) |
9.8 プログラム実装 | (第28回) |
10章 ディープラーニングモデル | |
10.1 例題の問題設定 | (第29回) |
10.2 モデルの構成と予測関数 | (第29回) |
10.3 損失関数 | (第30回) |
10.4 損失関数の微分計算 | (第30回) |
10.5 誤差逆伝播 | (第31回) |
10.6 勾配降下法の適用 | (第31回) |
10.7 プログラム実装(その1) | (第32回) |
10.8 プログラム実装(その2) | (第33回) |
10.9 プログラム実装(その3) | (第34回) |
10.10 プログラム実装(その4) | (第35回) |
11章 実用的なディープラーニングを目指して | |
11.1 フレームワークの利用 | (第36回) |
11.2 CNN | (第37回) |
11.3 RNNとLSTM | (第37回) |
11.4 数値微分 | (第38回) |
11.5 高度な学習法 | (第38回) |
11.6 過学習対策 | (第39回) |
11.7 学習の単位 | (第39回) |
11.8 重み行列の初期化 | (第40回) |
11.9 次の頂上に向けて | (第40回) |
その他:理論編(2章〜6章)の 総集編(第16回)