どうも、カタミチです。
ついに6章の最後の節にやってきました。今回は、モデルの解釈性の問題とその対応、というタイトルですね。早速見てみましょう!
ディープラーニングモデルの解釈性問題
様々なテクニックやモデルの工夫により予測精度が大きく向上したディープラーニングですが、実社会への活用を考えた際、「なぜ予測が当たっているのか」という疑問に説明が付きづらいため、実運用を躊躇してしまうケースが多いようです。…まぁ、解釈できないくらい複雑だから精度がいいわけで…と考えると、なかなか難しい問題ですね。
Grad-CAM
可視化を目的とした手法にGrad-CAMがあります。これは、画像認識系のタスクを対象として、モデルの予測判断根拠を示すために「画像のどこを見ているか」を可視化します。どこを見ているか?をヒートマップで示すような仕掛けです。
ただし、Grad-CAMではその過程で画像が低解像度になってしまうという問題点があり、その問題点を解決するためのGuided Grad-CAMという手法もあります。
ということで
最後の節は随分とアッサリでしたね。解釈性についてはまだまだ発展途上ということなのか、あるいは、別に解釈できなくても良くね?ということで研究者のモチベーションが上がらないのか…。まぁ、世の中全体の理解が進めば、解釈性の部分はそれほど言われなくなるかもしれないですね。既に我々は、よく分からないロジックで押し寄せる「レコメンド」を許容して、今日もAmazonでポチってるわけですし…。
ともあれ、これで6章「ディープラーニングの手法」が終わりました。やはり、一番難解な章でしたねー。まぁ、細かいアルゴリズムが語られていなかったので、とりあえずどんな手法があるのか?を抑えておけばいい感じですかね。
次は第7章「ディープラーニングの社会実装に向けて」に突入です!
ではまた。
勉強に使ってる書籍はこちら↓
深層学習教科書 ディープラーニング G検定(ジェネラリスト)公式テキスト 第2版