まったりAI勉強記

AI(人工知能)について、特にゆかりがあるわけでもない社会人が、まったりとAIについて勉強していく勉強日記です。

「最短コースでわかる ディープラーニングの数学」(【ひとり読書会】記事リンク集)

書籍最短コースでわかる ディープラーニングの数学に関する【ひとり読書会】記事の記事リンク集です。一緒に勉強がんばりましょう(^-^)

 

タイトル 記事

まえがき

(第1回)

1章 機械学習入門  
1.1 人工知能(AI)と機械学習 (第2回)
1.2 機械学習とは (第2回)
1.3 はじめての機械学習モデル (第2回)
1.4 本書で取り扱う機械学習モデル (第3回)
1.5 機械学習・ディープラーニングにおける数学の必要性 (第3回)
1.6 本書の構成 (第3回)
2章 微分・積分  
2.1 関数 (第4回)
2.2 合成関数・逆関数 (第4回)
2.3 微分と極限 (第4回)
2.4 極大・極小 (第5回)
2.5 多項式の微分 (第5回)
2.6 積の微分 (第5回)
2.7 合成関数の微分 (第6回)
2.8 商の微分 (第6回)
2.9 積分 (第6回)
3章 ベクトル・行列  
3.1 ベクトル入門 (第7回)
3.2 和・差・スカラー倍 (第7回)
3.3 長さ(絶対値)・距離 (第7回)
3.4 三角関数 (第8回)
3.5 内積 (第8回)
3.6 コサイン類似度 (第8回)
3.7 行列と行列演算 (第8回)
4章 多変数関数の微分  
4.1 多変数関数 (第9回)
4.2 偏微分 (第9回)
4.3 全微分 (第9回)
4.4 全微分と合成関数 (第10回)
4.5 勾配降下法 (第10回)
5章 指数関数・対数関数  
5.1 指数関数 (第11回)
5.2 対数関数 (第11回)
5.3 対数関数の微分 (第12回)
5.4 指数関数の微分 (第12回)
5.5 シグモイド関数 (第13回)
5.6 softmax関数 (第13回)
6章 確率・統計  
6.1 確率変数と確率分布 (第14回)
6.2 確率密度関数と確率分布関数 (第14回)
6.3 尤度関数と最尤推定 (第15回)
7章 線形回帰モデル(回帰)  
7.1 損失関数の偏微分と勾配降下法 (第17回)
7.2 例題の問題設定 (第17回)
7.3 学習データの表記法 (第17回)
7.4 勾配降下法の考え方 (第18回)
7.5 予測モデルの作成 (第18回)
7.6 損失関数の作成 (第18回)
7.7 損失関数の微分計算 (第18回)
7.8 勾配降下法の適用 (第19回)
7.9 プログラム実装 (第19回)
7.10 重回帰モデルへの拡張 (第20回)
8章 ロジスティック回帰モデル(2値分類)  
8.1 例題の問題設定 (第21回)
8.2 回帰モデルと分類モデルの違い (第21回)
8.3 予測モデルの検討 (第21回)
8.4 損失関数(交差エントロピー関数) (第22回)
8.5 損失関数の微分計算 (第23回)
8.6 勾配降下法の適用 (第23回)
8.7 プログラム実装 (第24回)
9章 ロジスティック回帰モデル(多値分類)  
9.1 例題の問題設定 (第25回)
9.2 モデルの基礎概念 (第25回)
9.3 重み行列 (第26回)
9.4 softmax関数 (第26回)
9.5 損失関数 (第27回)
9.6 損失関数の微分計算 (第27回)
9.7 勾配降下法の適用 (第27回)
9.8 プログラム実装 (第28回)
10章 ディープラーニングモデル  
10.1 例題の問題設定 (第29回)
10.2 モデルの構成と予測関数 (第29回)
10.3 損失関数 (第30回)
10.4 損失関数の微分計算 (第30回)
10.5 誤差逆伝播 (第31回)
10.6 勾配降下法の適用 (第31回)
10.7 プログラム実装(その1) (第32回)
10.8 プログラム実装(その2) (第33回)
10.9 プログラム実装(その3) (第34回)
10.10 プログラム実装(その4) (第35回)
11章 実用的なディープラーニングを目指して  
11.1 フレームワークの利用 (第36回)
11.2 CNN (第37回)
11.3 RNNとLSTM (第37回)
11.4 数値微分 (第38回)
11.5 高度な学習法 (第38回)
11.6 過学習対策 (第39回)
11.7 学習の単位 (第39回)
11.8 重み行列の初期化 (第40回)
11.9 次の頂上に向けて (第40回)

その他:理論編(2章〜6章)の 総集編(第16回)

 

最短コースでわかる ディープラーニングの数学