どうも、カタミチです。
さてG検定の勉強、今日から3章です。
例によって「ディープラーニング G検定(ジェネラリスト)公式テキスト 第2版」(以降、『当書』)を使ってやっていきたいと思います。
3章のタイトルは「人工知能分野の問題」ですね。一瞬、この章から問題集形式に変わるの?と思ったんですが、どうもそういうことじゃなさそうです。人工知能という分野が抱える問題にはこんなものがあるよー、ということのようですね。
1章〜2章でもAIの歴史の中で行き詰まってきたドラマを見てきたので、ある程度重複している感じも受ける章ですが…。さて、見ていきましょうかね。
トイ・プロブレム
まずはこれ。「おもちゃの問題」です。
アレですかね。子どもが成長して遊ばなくなったおもちゃたちがリサイクルされずに廃棄されてしまうという環境問題…。
…違います。
どういう話かと言うと、現実世界の問題をいきなりコンピュータを使って解こうとしても、問題が複雑過ぎてコンピュータで取り扱うことが難しい。だから本質を損なわない程度に問題を簡略化したもので考えるのですが…現実世界の問題を解くのは難しい…という話です。
…いや、当たり前やん。
難しいから簡単にして解けるようにしたんであって、また難しくしたら、そら解けんわ…という話なんじゃないですかねー。
と、思ってWebサイトやらを漁ってみたところ、前提となっている「問題を簡略化して考える」というより、「今は簡単な問題しか解けないが、突き詰めて行けば、現実世界の問題も解けるんじゃないか?」ということで頑張ってはみたけど…
結局だめでしたー。所詮、おもちゃの問題(トイ・プロブレム)しか解けませんわ。
ってことで、第1次AIブームに終焉をもたらしたキーワードのようですね。
フレーム問題
2つ目はフレーム問題です。1969年にジョン・マッカーシーとパトリック・ヘイズが提唱した重要な問題であり、未だに本質的な解決はされておらず、人工知能研究の最大の難問とも言われているそうです。
いやー、最大の難問とか言われるとワクワクしますね。解いたら歴史に名を残すことができるかもしれませんねー。
この問題は、一言で言うと「今しようとしていることに関係のあることがらだけを選び出すことが、実は非常に難しい」という問題のようです。本書には、爆弾とロボットという例で書かれていましたが、せっかくなので他の例はないかなー、とWebで探してみたところ…爆弾とロボットの例ばっかり出てきました(汗)
ただ、こんな例を見つけました。
完全自動運転車を作ると仮定します。シンプルに考えれば、法定速度内で前の車とぶつからないように、決められた車道内を信号などの交通ルールを守りながら走ればよいだろう。しかし現実にはそれだけでは済まない。猫が道から飛び出してきたり、土砂崩れの岩が落ちてきたりする可能性がなきにしもあらずだ。そういった想定外の可能性は、考えれば考えるほど検討すればするほど無限のように出てきてしまうだろう。
ということなんですねー。どれだけコンピュータが高性能になったとしても、無限の可能性をプログラムすることはできず、つまりは動けずに思考停止してしまう…ということですね。
これも非常に興味深い話です。
余談ですが(またかよ)、私が中学生の頃、体育館で校長先生の話をぼーっと聞いていたとき、「あー、この体育館の天井が突然落ちてきたら自分はどうなるかなー。…まっすぐ落ちてきたら、あの鉄骨とあの鉄骨の間に挟まるから自分は助かるな。ただ、ちょっと気になっている異性の○○ちゃんは危ない。彼女をかばって自分が犠牲になるか…?」なんて、どうでもいいことを妄想したりしていました。(聞けよ、校長先生の話)
ただまぁ、そういうことなんでしょうね。現在起こりうるありとあらゆる可能性をすべて考慮に入れることはできず、そうあろうとすると思考停止してしまう…。人間だってそうですよね。「30年以内に首都直下型地震が来るかもしれない」とか「生きている間に小惑星が地球に衝突して、地球が壊滅するかもしれない」とか「昨夜雪が降ったから路面が凍結してて、ブレーキがうまく効かなかった車が突っ込んでくるかもしれない」とか、あらゆる可能性を常に考えていたら人間だって脳みそパンクしてしまいます。
ぶっちゃけ、人間がそうしているように、しきい値を作って割り切るしか無いんじゃないですかねー。思考停止するより、起こりうる可能性の高いもののみを考慮してそれ以外は考えない。…まぁ、それ自体が人工知能には難しいって話なのかもしれませんが(汗)
いずれにしても、興味深い問題ですね。
チューリングテスト
3つ目はチューリングテストです。…「問題」って言葉がつかないですね。さて何が問題なんでしょうかね…?
どうやら、チューリングさんって人が考えたテストだからチューリングテストっていうみたいです。これは、別の場所にいる人間がコンピュータと会話し、相手がコンピュータだと見抜けなければコンピュータには知能があるとする、というテストのようです。なんともアナログな感じのテストですが、おもしろくはありますね。5分間質問したあとの判定でコンピュータと人間を誤認する確率が30%を超えれば合格…ということで、チューリングさんは、1950年の論文で「50年以内に30%になるだろう」と予想したそうです。
それから64年後の2014年、英国レディング大学で実施された実験においてついに30%を超える結果を出し、合格した!…のですが、なんだか議論が分かれるところらしいです。人間のように会話する…というのは一つの悲願のようなものですからね。AIで故人を蘇らせる…なんてサービスも始まっているらしいです。
で、またまた余談ですが、私の好きなSFアニメにシュタインズ・ゲートという作品があるんですが、その中で、死んだ人間を完全にデータ化して会話するという「アマデウス計画」っていうエピソードがあって、SFの世界はやっぱり人間の夢だよなぁ、と感慨深く思いました。
ということで
うん、おもしろかったですね。
節はまだ6個あるんですが、長くなってきたので今日はこの辺にしておきます。…余談が多すぎますね、はい。まぁ、勉強なんて楽しんでやるのが一番なので、引き続きボチボチやっていきたいと思います(^-^)
ではまた。
勉強に使ってる書籍はこちら↓
深層学習教科書 ディープラーニング G検定(ジェネラリスト)公式テキスト 第2版