まったりAI勉強記

AI(人工知能)について、特にゆかりがあるわけでもない社会人が、まったりとAIについて勉強していく勉強日記です。

【G検定】人工知能をめぐる動向 - 機械学習・深層学習

どうも、カタミチです。

さて今回も「ディープラーニング G検定(ジェネラリスト)公式テキスト 第2版」(以降、『当書』)を使ったG検定の勉強です。

引き続き第2章「人工知能をめぐる動向」を読み進めて行きたいと思います。

2-1. 探索・推論
2-2. 知識表現
2-3. 機械学習・深層学習

今回はいよいよ「機械学習・深層学習」についてですね!早速見ていきましょう〜

 

機械学習・深層学習

さて、結論から先に言うと「機械学習・深層学習」の節については「探索・推論」や「知識表現」のように、詳しい仕組みについては述べられていませんでした。おそらく、ここがメインなので以降の章で細かく説明があるんでしょう…たぶん。

しかし、概要を捉えるには良い節だったので、書いていきたいと思います。

 

機械学習

まずは機械学習。これは…

人工知能のプログラム自身が学習する仕組み

とありました。以前の記事でWikipediaから引っ張ってきた定義と表現は少し違いますが、言ってることはまぁ同じですね、はい。

サンプルデータを取り込んで学習するという性質があり、このサンプルデータが多いほど高い学習効果が得られます。黎明期は、文字認識などのパターン認識の分野の技術として活用されていたようです。

当時は多くのデータを収集するのは難しかったため、少ないデータから分析できる方法も重宝されていました。

転機が訪れたのは1990年にインターネット上にウェブページが初めて作られたこと。これにより爆発的なデータの蓄積によって、特に2000年以降「ビッグデータ」と言うキーワードとともに注目を集めました。

この辺りの流れは色んなところで見かける文脈ですね。インターネットが出てきた当時から、専門家の間ではデータに着目していたんですね…。当時の私は「色んな情報がインターネットの世界でタダで手に入る!やった!」というレベルで止まってました(汗)

これにより、レコメンデーションエンジン迷惑メールのスパムフィルターなどにも利用されるようになり、さらには統計的自然言語処理にも使われるようになって行きました。

この「統計的自然言語処理」というのは、文法構造や意味構造によらず、対訳データ(コーパスを元に正解である確率が高いものを選ぶ…というやり方だと言うのが新しい点です。要は、似たような文章データを大量に取り込んでおいて、新たに投入されたデータがどれに一番近いか?という事で判断する…ってな感じです。

f:id:feh_asama:20220109132421j:image

本書では例として「bank」が挙げられていました。bankには「銀行」って意味と「土手」って意味がありますが、bankを含む文章を放り込んだ時に、moneyとかinが含まれていた場合…

『money』とか『in』と一緒に使われる『bank』はたぶん『銀行』やろ」って事ですね。

I have money in the bank.

って文があったら「銀行にお金がある」と捉えるのが自然ですよね。もしかするとこれがミステリー小説か何かで、「私は土手の中に金を埋めて隠しとるんや…」って可能性もゼロではないですが、そう言った場合、人間でも意味を取り違えたりしますよね、はい。

 

深層学習

さて、機械学習についてはある程度分かりましたが、その方法についての説明はまだありませんでした。その方法のひとつが…

ニューラルネットワークです(深層学習じゃないんかい〜)

…1958年、ニューラルネットワークの元祖である単純パーセプトロンが生まれます。

f:id:feh_asama:20220109132954j:image

…何となく単純パーセプトロンの絵を貼ってみましたが、良く意味が分かってません(汗)。まぁ、これから勉強を進めていけばきっと詳しく出てくるでしょう(適当)

さて、第3次AIブームが2010年〜と言われていますが、既に1958年にその種子が芽を出していたんですねー。AI(人工知能)という言葉が1956年のダートマス会議で初めて使われた2年後の事ですね。「知識表現」の節でも感じましたが、第1次〜第3次とブームを起こした要素技術はそれぞれ違えど、起源を遡ると同じような時点に辿り着くのは、非常におもしろいですね。

で、この単純パーセプトロンを多層にしたものがディープラーニング(深層学習)です。…ついに来ましたよ。

しかし、これがすぐに実現したかと言うとそんなことは無く、3層より多層にしても学習精度が上がらないという壁にぶち当たり、研究は一旦下火になります。

その後、1986年に誤差逆伝播法という方法が編み出されたり、2006年に自己符号化器などが研究されたりして、ディープラーニングの精度は上がっていったと言います。

 

そして、運命の2012年。

画像認識の精度を競い合う競技会ILSVRCで大転換点が訪れます。エラー率の低さを競うこの大会、2010年優勝チームのエラー率は28%、2011年の優勝チームのエラー率は26%でした。そして迎えた2012年。2位のチームが出したエラー率は26.1%だったのに対し、優勝チームの叩き出した数値は…

15.3%!

トロント大学のジェフリー・ヒントン率いるチームが見事圧勝したと言うのです。

機械学習を用いる、という事は他のチームもやっていたそうなんですが、大きく違ったのは、特徴量の決定。これまでは人間が職人技で決めるものというやり方だったところに、ジェフリーは新しい機械学習の方法を取り入れました。これが、2006年から彼が研究していたディープラーニング(深層学習)だったのです。

ちなみにその時26.1%で2位だったのは東大のチームだったようです。…日本人としてはなんか妙に悔しい(ふむ)

その後、ILSVRCのチャンピオンはすべてディープラーニングを利用しており、2015年にはついに、人間の画像認識エラーである4%を抜いたそうです。驚きを越えて感動すら覚えますね。

本書にはありませんでしたが、同年「Googleの猫」が発表されてディープラーニングの有用性が決定的となり、AIの技術分野でも脚光を浴びるようになった…という事ですね。ようやくつながりました。

そういえば、AlphaGoの話は出てきませんでしたね。…まぁ、どこかでまた出てくることになるでしょう、はい。

 

ということで

これで「人工知能をめぐる動向」の話は終わりです。それぞれのブームの歴史を深掘りした…という感じでしたね。研究者たちの戦いの一端を垣間見た気がして、非常に楽しかったです。さて、このあとは具体的にディープラーニングの勉強に入っていく…!?んですかねー。楽しみです。

ではまた。

勉強に使ってる書籍はこちら↓
深層学習教科書 ディープラーニング G検定(ジェネラリスト)公式テキスト 第2版