まったりAI勉強記

AI(人工知能)について、特にゆかりがあるわけでもない社会人が、まったりとAIについて勉強していく勉強日記です。

【G検定】データを加工・分析・学習させる その2

どうも、カタミチです。

さて、前回の続きですね。早速、行ってみましょうかねー。

アルゴリズムを設計・調整する

初期段階でパラメータの設定が甘くモデルの精度が低い状態だったとしても、モデルの調整により精度が向上していき、徐々に実験で得られる精度向上の差分が小さくなっていきます。つまり、頑張った割に精度向上の度合いが小さくなっていくということになります。趣味でやってるなら良いんですが、ビジネスでやっている場合は考えものですね。ビジネスにおける目標に対して精度とコストの折り合いを付けて進める必要があります。

また、第6章の最後あたりでも出てきましたが、予測モデルや与えられるデータが複雑になりすぎると、どの変数がより多くシステムに使われていて重要であるかなどシステム全体の説明が非常に困難になるという、いわゆるブラックボックス問題が生じます。この問題に取り組むべく、結果出力に至った判断根拠やモデルの解釈も説明できるXAI(Explainable AI)の開発が進んでいます。

プライバシーや公平性の問題について取り組むFAT(Fairness,Accountability,and Transparency)という研究領域やコミュニティもあります。例えば、計算機科学の国際学会であるACMの主催するACM FATでは、機械学習だけでなく法学や社会学、哲学などの専門家を交えて様々な研究発表や議論が行われています。

アセスメントによる次フェーズ以降の実施可否を検討する

さて、まだ準備段階は続きます。アセスメントフェーズですね。ここでは、データの収集およびモデルの検討を中心に行います。

まず、データの収集については、開発計画段階で検討しておいたデータの収集可否を確認します。

次に、モデル構築方法の検討ですが、解こうとする問題に対し、同様の問題を解いている事例や文献の有無を調査します。これは、通常のシステム開発ではあまり無いプロセスですね。確かに、事例を見ることで難易度や精度がある程度分かり、リスクを下げることができますね。

また、モデルは運用での推論時間を視野に入れて選択する必要があります。いわゆる処理性能ですね。例えば、これまで1サイクル3秒で行えていた処理に1サイクル30秒かかるとなると、1日で実行可能なサイクルが激減することになりますよね。もちろん精度も求めるべきですが、処理効率が著しく落ちることを良しとするか…というのは十分に検討する必要があるでしょうね。もちろん、速くて精度が高いに越したことはありませんが(汗)

アセスメントフェーズが完了したら、シミュレーションが一段具体化するため、ビジネスインパクトをさらにイメージすることが可能となります。

現場でのコンセプト検証(PoC)を行う

コンセプト検証(PoC)フェーズにおいては、データの加工とアルゴリズムの設計・調整を中心に進め、実際にAIモデルを作成します。

ここまででデータの蓄積が十分でない場合には大量データの蓄積を行いますし、それを利用できる形に加工します。さらに、モデルを学習するための学習コードを開発し、パラメータを調整して精度を検証します。

AIモデルでは、その推論精度を仕様として表すことには適さないため、AIでの認識と人による最終決定を組み合わせるという仕組みを取り入れることで、さまざまなリスクを低減させ、運用フェーズに進めることが大切です。きっちりその性質を理解し、盲信は危険だということですね。

ということで

さらっと見てきましたが、AIプロジェクトで最も実作業っぽいフェーズがこのあたりですね。テクニック論はほとんど書かれていないため別途習得に努める必要はありそうですが、イメージは付きやすかったです。

さて、第7章も残すところあと2節。がんばって見ていきますかねー。

ではまた。

勉強に使ってる書籍はこちら↓
深層学習教科書 ディープラーニング G検定(ジェネラリスト)公式テキスト 第2版