どうも、カタミチです。
さて、今日も「最短コースでわかる PyTorch&深層学習プログラミング」のひとり読書会、やっていきますかねー。
今日、本屋にふらっと行ってみたんですが、そこで本書を見つけました。で、気になってた事を確かめてみました。表紙をめくった直後にあった、図と章立ての表は…
やっぱり、びろーんって広がる長い紙でした!
しかし、ミシン目は付いてなかったですね。深読みし過ぎました。それにしても、紙版だとやっぱり分厚いですねー。紙版を先に見てたら戦う前から挫けてるところでした(おい)。
さて、そんなことはいいとして、今日からいよいよ本の内容に入っていく事になります。ということで、いざ…
しゅっぱ〜つ!
序章 初めての画像認識
まず「1章」に入る前に「序章」があります。推理小説あたりだと、犯人視点による犯行シーンが映し出されたりするやつですかね。
死体候補Aさん「はいはい、いま開けますよー。」
(ガチャ。)
Aさん「ま…まさかあんたは!?あの高さから落ちたのに生きていたというのか…?」
(視線を落とすと手にはナイフが)
Aさん「…おい待て、あれは仕方なかったんだ。オレのせいじゃない…オレのせいじゃないんだー、ギャー」 序章完
みたいなやつ。
さて、本書の序章では誰が殺されるんですかねー。さっそく見てみましょう〜(いや、誰も殺されんやろ)。
冒頭に書かれていたのは、今回使用する実行環境についてでした。使うのは…
Google Colab(Google Colaboratory)
とのことです。いやー、助かります。私これまで、Google Colab以外の実行環境でやったことないもんで。ちなみに本書では、Google Colab自体の使い方にも少し触れてくれるようです、はい。
次に、PyTorchの類似のフレームワークであるKerasとの違いに触れられていました。どうやら、PyTorchの方が機能面・拡張性の観点では勝るものの、記述方法が少し複雑…って感じのようです。まぁ、フレームワーク自体が初見の私みたいな人間は、まだ何色にも染まってないので、あんまり気にしなくて良さそうですかね。
さらには、読み方の提案がありました。ちゃんとコードを実行しながら読み進めてね、とのことです。私は…と言えば、当然言われるまでも無く実行しまくる所存です(鼻息荒)。
ということで、さっそく「Google Colab」を触ってみよう〜、って話が始まりました。手順に従って、用意されたNotebookを読み込んで…
よし、準備完了!
ということで
短いですが、とりあえず今日はここまでにしときますかね。
明日は「序章」の後半戦に入りたいと思います。読み込んだNotebookにどんなプログラムが仕込まれているのか…?楽しみです(^ ^)
ではまた。