どうも、カタミチです。
さて、第7章もついに最後の節にきました。最後は「クライシス・マネジメント」についてですね。行ってみましょう!
体制を整備する
想定される危機を予防するのが、前節にも出てきた「リスク・マネジメント」なら、いざそれが発生したときに、危機を最小限に抑えて拡大を防ぐ「火消し」と、速やかに平常化と再発防止を目指す「復旧」を主眼としたのが「クライシスマネジメント(危機管理)」です。
そこで体制の整備が必要…ということになるのですが、一部の企業では、外部の有識者などで構成される委員会を設置したり監査体制を強化したりするなどコーポレート・ガバナンス(Corporate Governance)や内部統制の更新が進められています。
もちろん、現場にいる担当者が問題意識を理解していなければ、体制を整備しても形骸化や思考停止を招く恐れもあるため、周知・啓蒙も必要になるでしょうね。
有事に対応する
近年、ソーシャルメディアの口コミが発端となって、クライシスに陥ることが増えてきました。いわゆる「炎上」というやつですね。マスメディアが報道して拡大することもあります。クライシスの段階・規模に応じて、機動的に対応することが、より重要になってきます。
このあたり、有名企業だと一気に風評が広まって企業イメージを損なうこともあるので、結構ピリつくところですよねー。
社会と対話し対応をアピールする
また、実際の対策を講じるのはもちろんのこと、そういった取り組みをしていることをアピールすることも重要ですね。透明性を担保し、説明責任を果たすことにつながります。
Twitter社やGoogle社をはじめとするいくつかの企業は、透明性レポートなるものを公開しているようです。ユーザーから寄せられる情報開示請求や削除請求、政府からのコンテンツの削除要求などを統計で示して対応を一望できる…というものらしいです。
日本では、一般財団法人セーファーインターネット協会(Safer Internet Association:SIA)が、ユーザーからの通報を受けて削除依頼を行うだけでなく、サイトパトロールも行い、毎年統計情報を公開しています。
指針を作成し議論を継続する
海外では、2016年にAmazon、Google、Facebook、IBM、MicrosoftなどアメリカIT企業を中心として、Partnership on AI(PAI)が組織されており、原則や指針が示されています。また、IEEEが「倫理的に調和された設計」(初版)を2019年に公開したり、Future of Life Instituteが「アシロマAI原則」を公開したりしています。
国や国際機関も原則やガイドラインを公開しています。欧州委員会は2019年4月に「信頼性を備えたAIのための倫理ガイドライン」を、2020年には「AI白書」を公開。中国も2019年5月に「北京AI原則」を公開した他、日本も2019年に内閣府が「人間中心のAI社会原則」を公開しました。
プロジェクトの計画に反映する
AIは、作ったら終わりではなく、そこから得た教訓を運用の改善やシステムの改修、次の開発へと循環させていくサイクルが重要です。想定外の事件や事故を起こさないためにも、技術の開発段階から以下のようなことを考えていくことが求められています。
・このAIシステムで恩恵や影響を受けるのは誰か。
・想定外のユーザーはいないか。
・判断や最適化を行う時の基準は何か。
・判断や最適化などを機械で行うことの正当性はどんな根拠に基づいているか。
・AIシステムやサービスを、現在の文脈以外に悪用される危険性はあるか。それを防ぐ対策は取られているか。
このようなことを、常に問いかけながらAIシステムと関わっていく…という姿勢が重要だ、ということになりますね。
ということで
ついに、第1章〜第7章までを走り切りました!
本書にはあと「Appendix」があるんですが、「事例集 産業への応用」というところなので、ざっと見て終わることにしたいと思っています。試験もだいぶ近づいてきましたので、そろそろ追い込みに入る必要がありそうですねー。
ではまた。
勉強に使ってる書籍はこちら↓
深層学習教科書 ディープラーニング G検定(ジェネラリスト)公式テキスト 第2版