どうも、カタミチです。
さて、今日も「最短コースでわかる PyTorch&深層学習プログラミング」のひとり読書会、やっていきますかねー。
「初めての機械学習」というタイトルのこの章。どうやら「線形回帰」をやっていくようですね。前著でもはじめにやったやつなので、原点回帰で頑張っていきたいと思います。
3-1. 問題の定義
今回の例題は、単回帰問題では定番の「与えられた身長から体重を予測するモデル」というやつです。これが分かれば、気になるあの子の身長を聞くだけで体重を妄想することができる!(セクハラまがい)
今回のデータはとりあえずこんな感じ。
データは5点のみですが、何となく直線で近似できそうな雰囲気はありますかね。
3-2. 本章で学ぶ重要概念
「線形回帰」をやるってことからも分かる通り、今回は「勾配降下法」の考え方に沿ってやっていくようです。「予測計算」「損失計算」「勾配計算」「パラメータ修正」「最適化関数」と言ったキーワードを使いながら進めていくようです。
3-3. 勾配降下法の考え方
で、3-3節では「勾配降下法」の考え方が数ページで説明されているんですが、既に前著で本1冊かけて学びましたから、ここはサラッと進めました。
山登りに例えて説明がされていましたが、この説明が分かりやすいものなのかどうかは…私には分かりませんでした(汗)。既知のものに対して、未知だった頃を思い出す…という器用な真似が、どうにもできないもので…。
ということで
今日はひとまずここまでですかね。果たして、線形回帰をPyTorchでどう書くのか…?楽しみです(^ ^)
ではまた。