1950年代に(ア)の研究が行われ、コンピュータが迷路や簡単なゲームを解くことができるようになった。これが契機となった第一次AI ブームでは、実社会における複雑な問題に対してもコンピュータに解を提示させることへの期待が高まった。しかし、(ア)によって解くことができる問題はトイ・プロブレムに限られることが明らかになり、 第一次AIブームは終焉を迎えた。
第一次AIブームに関する知識を問う問題です。
第一次AIプームで主に研究されたのは「探索・推論」です(C)。これらの研究によって、トイ・プロプレムと呼ばれる簡単な問題に対して解を提示できるようになりました。
エキスパートシステムは、第二次AIブームにおける技術であり、専門家が持
つような知識にもとづいた推論によって、複雑な問題を解くことができます (A)。
ディープラーニング (深層学習)は、多層化したニューラルネットワークを用いた技術であり、第三次AIプームにおいて研究されています (B)。
知識ベースは、第二次AIブームにおけるエキスパートシステムの推論の根拠となるデータベースです(D)。
各AIプームの変遷を図で表すと以下のようになります。
各AIプームにおける技術について覚えておきましょう。
探索木における幅優先探索の知識を問う問題です。
1つのスタートと2つのゴールが設定された迷路を、アルゴリズムによって解くことを考えます。スタートからゴールまでの間の分岐と行き止まりのパターンを線で繋ぐと、この迷路を木構造で表現できます。これを探索木と呼びます。
探索木を用いることで、スタートからゴールまでの到達可能な経路をアルゴリズムによって求めることができます。探索木の経路を探索する代表的な手法として、幅優先探索と深さ優先探索があります。
幅優先探索は、スタート地点に近いノード (探索木の要素)から順に探索を続け(A)、指定されたゴールが見つからなかった場合に次の階層に進む探索方法です。一方、深さ優先探索は、最も深いノードに達するまで、可能な限り深く探索する探索方法です。1つの経路を進み、それ以上進めなくなったところで引き返し、次の候補の経路を進みます。
幅優先探索では、最短距離でゴールにたどり着く解を必ず発見することができます(C、D)。ただし、同じ探索木の探索を行う場合、深さ優先探索と比較して計算量が大きくなりやすいことが知られています(B)。
一方、深さ優先探索では、計算量は比較的小さくなりやすいですが、発見した解が最短距離であるとは限りません。
プランニングに関する知識を問う問題です。
プランニングは、ロボットの行動計画を探索によって作成する技術です。
イライザ (ELIZA) 【解答11を参照】は、あらかじめ用意された回答パターンに従って、あたかも人間と対話しているかのように返答する人工無脳と呼ばれるシステムのひとつです。イライザにはプランニングの技術は用いられていません (ア)。
東ロボくんは、東京大学に合格できる能力の獲得を目指して開発された人工知能です。2016年にはほとんどの私立大学に合格できるレベルに達しましたが、読解力に問題があり、プロジェクトは凍結されました。東口ボくんにはプランニングの技術は用いられていません(イ)。
SHRDLUは、1968年から1970年にかけてテリー・ウィノグラード (Terry Winograd) によって開発されたシステムです。コンピュータ画面上に描かれた「積み木の世界」で、プランニングによって英語による指示で積み木を移動させたり並べ替えることができました(ウ)。
STRIPS (Stanford Research Institute Problem Solver)は、1971年にリチャード・ファイクス (Richard Fikes) とニルス・ニルソン (Nils Nilsson) によって開発されたプランニング研究における代表的なシステムです。STRIPSでは、前提条件、行動、結果の3つの組み合わせで行動計画を記述します (工)。
以上のことから、(ウ) (工)が適切な組み合わせです(D)。
プランニング技術の概要と代表的な研究成果について覚えておきましょう。
(ア)は、自分の手番で自分に最も有利な選択をし (スコア最大)、 相手の手番では相手が最も有利な選択をする(スコア最小) と仮定して、 次の手を網羅的に探索する手法である。
Mini-Max法についての知識を問う問題です。
完全情報ゲームとは、任意の時点において、これまでの行動や状態に関する情報がすべて明らかになっているようなゲームのことです。
完全情報ゲームにおけるそれぞれの局面で、自分にとって有利である度合いを「スコア」として評価し、それをもとに次の手を決定する問題を考えます。
Mini-Max法は、このような問題を探索によって解くアルゴリズムです。
Mini-Max法では、自分の手番でスコア最大の手を選び、相手の手番でスコア最小の手が選ばれることを仮定して、次の手を網羅的に探索します(A)。
Mini-Mini法、Max-Max法は探索の手法として一般的ではありません(B、C)。
Mini-Max法では、実際に読む必要のない手まですべて探索します。しかし、 探索の途中でそれ以上は読む必要がないと評価できれば、その時点で探索を打ち切り、計算を効率化できます。このような考え方を用いて、Mini-Max 法を改善した手法をαβ法と呼びます。aẞ法はMini-Max法と同じ考え方にもとづく手法ですが、網羅的に次の手を探索する手法ではありません(D)。
Mini-Max法やαβ法の考え方を理解しておきましょう。
ボードゲームの盤面評価に利用されるモンテカルロ法について問う問題です。
ボードゲームにおいて、各盤面におけるスコアは次の手を探索するために非常に重要ですが、たとえば、囲碁のようなゲームでは、明確なスコアの設計が難しいという問題があります。
そこで、2人の仮想的なプレイヤーが、各盤面から終局までをランダムにシミュレートし(D)、その勝敗を記録することを考えます(これをプレイアウトと呼びます)。1回のプレイアウト結果は偶然ですが、これを何回も繰り返すことで各盤面の評価値を統計的に推測することができます。この評価値を盤面のスコアとして用います (A)。このような手法をモンテカルロ法と呼びます。
モンテカルロ法は、盤面の評価をブルートフォース (力任せ) で行う手法です(B)。また、モンテカルロ法は、囲碁のように評価値を明確に定義できない場合にも適用することができます(C)。
モンテカルロ法の仕組みについて理解しておきましょう。
第二次AIブームで始まった、知識の蓄積をベースとした仕組みの活用について問う問題です。
1980年代に第二次AIブームが到来しました。第二次AIブームで中心的な役割を果たしたのは、知識表現とエキスパートシステムです。
エキスパートシステムは、ある専門分野の知識 (知識ベース) にもとづいて推論する構造を備え、その分野の専門家のように振る舞うことができるプログラムです(D)。
第二次AIブームの初期に影響力の大きかったエキスパートシステムとして、 1970年代にスタンフォード大学で開発されたマイシン (MYCIN) があげられます(A)。このマイシンは、血液中のバクテリアの診断を支援するシステムです。
イライザ (ELIZA)は、あらかじめ用意されたパターンにもとづいて応答する会話プログラムです。イライザは 「人工無脳」と呼ばれるシステムのひとつであり、知識ベースを有しておらず、エキスパートシステムではありません(B)。
DENDRALは、1960年代にスタンフォード大学のエドワード・ファイゲンパウムによって開発されたエキスパートシステムであり、知識ベースを利用して未知の有機化合物を特定することができます (C)。
第二次AIブームで中心的な役割を果たしたエキスパートシステムについて、その仕組みと代表的なシステムの名称を覚えておきましょう。
意味ネットワークにおける継承関係の理解を問う問題です。
意味ネットワークとは、概念を1つのノードとし、それらを意味関係で関連づけたネットワークです。意味ネットワークにおける継承関係は、「is-a」の関係で表されます。たとえば、「動物は生物である」という関係は継承関係であり、生物は上位概念、動物は下位概念と呼ばれます(C)。
「part-of」の関係は属性を表します(A)。また、「has-a」 の関係は所有を表します(B)。一方、「value-of」という関係は一般的ではありません(D)。
セマンティックウェブ (Semantic Web) に関する理解を問う問題です。 セマンティックウェブとは、ウェブサイトの情報リソースに意味を付与することで、コンピュータによってより高度な意味処理を行うための技術のことです(A)。
ウェブマイニング (Web Mining) とは、ウェブデータを解析して知識を取り出す技術を指します(B)。
LOD (Linked Open Data)は、コンピュータ処理に適したデータを公開・共有するための技術です(C)。
Cycプロジェクトは、すべての一般常識をコンピュータに取り込むことを目的にスタートしたプロジェクトです(D)。
セマンティックウェプを構築することで、どのような未来を目指そうとしているのか整理しておきましょう。
IBM社が開発したワトソン (Watson) に関する知識を問う問題です。
ワトソンは、「Question-Answering (質問応答)」と呼ばれるタスクを解く
ことができる人工知能です(ア)。
ワトソンは、米国のクイズ番組 「Jeopardy!」で、人類代表のチャンピオン
と対戦し、勝利しました(イ)。
ライトウェイトオントロジーとは、さまざまな概念の間の関係を表現したものです [解答10を参照]。通常は、大量のデータを処理することによって構築されます。ワトソンは、ウィキペディアの情報をもとにライトウェイトオントロジーを生成し、解答に利用しています(ウ)。
ワトソンは、人間のように質問の意味を理解して問題を解いているわけではありません(工)。
以上により、(ア) (イ) (ウ)が適切な組み合わせです(A)。
ワトソンができることや、その仕組みを覚えておきましょう。
ライトウェイトオントロジーに関する理解を問う問題です。
オントロジーとは、ある分野で使われる用語や概念の関係を体系的に整理することを指す概念であり、コンピュータによる処理や検索性能を向上させるために用いられます。
ライトウェイトオントロジーでは、正確性よりも実用性を優先する考え方にもとづいてオントロジーを構築します。そのため、オントロジーの構成要素や意味的関係の正当性について深い考察は行いません。概念間の関係性をコンピュータで自動的に発見することによって、より実用的なオントロジーの構築を目指します。
これに対してヘビーウェイトオントロジーは、知識をどのように記述すべきかを哲学的に考察してオントロジーを構築します。特に正確性が重視されるため、構築にあたっては人間が関与せざるを得ず、相応のコストを要します。
ライトウェイトオントロジーを構築するための方法として、データマイニング、LOD(Linked Open Data)、ウェブマイニングなどがあげられます。データマイニングは、ビッグデータを解析して知識を取り出す手法で、ライトウェイトオントロジーの考え方に合致します(A)。また、LODはコンピュータ処理に適したデータを公開・共有するための技術で、ライトウェイトオントロジーの考え方に合致します(B)。
Cycプロジェクトは、すべての一般常識をコンピュータに正確に取り込むことを目的としたプロジェクトであり、ヘビーウェイトオントロジーに関連します(C)。
ウェブマイニングはウェブデータを解析して知識を取り出す手法で、ライトウェイトオントロジーの考え方に合致します(D)。
オントロジーを構築するそれぞれのアプローチについて理解しておきましょう。
イライザ (ELIZA) についての理解を問う問題です。
イライザは、1964年から1966年にかけてジョセフ・ワイゼンバウム (Joseph Weizenbaum) によって開発されたコンピュータプログラムです。
イライザは、相手の発言をあらかじめ用意されたパターンと照合し、合致したパターンに応じて返答するという仕組みで動作します(B)。このように、 あらかじめ人間が設定したパターンにもとづいて応答するプログラムは人工無脳と呼ばれます。イライザは人工無脳の元祖と呼ばれることもあり、以後の会話ボットの研究開発に影響を与えました (A)。
イライザは、セラピストのように振る舞うことはできましたが、専門知識をデータベースとして持つエキスパートシステムではありません(C)。
イライザには知性があると錯覚してしまう人が現れるほど高い対話能力を備えていました。このようなコンピュータに対する錯覚現象はイライザ効果と呼ばれます(D)。
イライザの特徴や社会的影響を、開発された時代と合わせて覚えておきましょう。
第二次AIブームでは知識表現の研究が行われ、さまざまなAIシステムが誕生した。(ア)は、自然言語を使用してユーザーと会話ができるAIシステムで、人工無脳の元祖と呼ばれている。(イ)は、有機化合物の構造決定を支援するために開発されたエキスパートシステムである。(ウ)は、血液中のバクテリアの診断支援を行うエキスパートシステムである。
第二次AIブームで研究された人工無脳とエキスパートシステムの代表例について問う問題です。
イライザは、自然言語を使用してユーザーと会話ができる初期のAIシステムです。特定のルールに従って複数のパターンでユーザーの応答を処理する構造を備え、人工無脳の元祖とされています(ア)。
DENDRALは、未知の有機化合物を特定するために開発されたエキスパートシステムです(イ)。
マイシンは、1970年代にスタンフォード大学で開発された、血液中のバクテリアの診断を支援するエキスパートシステムです。質問に順番に答えていくことで、感染した細菌の特定と抗生物質の処方を行うことができます(ウ)。 なお、STRIPSとSHRDLUは、第一次AIブームで行われたプランニング研究における代表的なシステムです。
以上により、(ア) にはイライザ、(イ)にはDENDRAL、(ウ) にはマイシンが入ります(B)。
第二次AIブームでの研究成果を、具体的なシステム名とともに説明できるようにしておきましょう。
機械学習とルールベース手法の特徴およびその差異を問う問題です。
機械学習は、大量のデータからパターンを自動的に抽出し、予測や分類を行う技術です(A)。人間が明示的にルールを与える必要がないため、従来のルールベースの人工知能とは性質が大きく異なります。
ルールベース手法では人間が与えたルールによってのみ行動が決定されるため、学習データは必要ありません(B)。
機械学習では、一般に学習データが多いほどより良い精度を実現できます(C)。また機械学習は、ルールベース手法を適用した場合と比較して常に良い精度を達成できるわけではありません。特に学習データが少ない場合などは、ルールベース手法が適している可能性があります(D)。
参考:機械学習は、現在まで続いている第三次AIブームを支える中心的な技術です。また、近年特に注目されているディープラーニングも、機械学習の一分野です。
第三次AIブームにおいて、ディープラーニング (深層学習)の研究が急速に進展した理由として、(ア)が利用できるようになったことがあげられる。(ア)は画像、音声、テキストなど、多様な形式のデータを大量に含んでおり、ディープラーニングの技術を活用して効果的に処理することができる。また、2012年には、画像認識の精度を競い合う競技会である(イ)において、トロント大学がディープラーニングを活用して圧勝したことにより、ディープラーニングへの注目度が一気に高まった。この出来事は、以後のディープラーニング研究を加速させた一因と考えられる。
第三次AIブームにおいて、ディープラーニング (深層学習)の研究が急速に進展した背景を問う問題です。
ディープラーニングでは、大量のデータを処理することで、従来では難しかったタスクを実現することができます。また、ビッグデータは、インターネット上に蓄積される大量のデータを指す用語です。インターネットの普及やデジタル技術の進展により、ビッグデータが利用可能になってきたことが、 ディープラーニングが発展した大きな理由であると考えられます(ア)。
ILSVRC (ImageNet Large Scale Visual Recognition Challenge)は、 画像認識の精度を競い合う競技会です。2012年にトロント大学のチーム 「SuperVision」が初めてディープラーニングを活用し、圧倒的な勝利を収めました。この出来事は多くの研究者の注目を集め、以後のディープラーニング研究が盛り上がる一因になったと考えられます(イ)。
LODは、コンピュータ処理に適したデータを公開・共有するための技術で、Kaggle (カグル)は、幅広いタスクを扱う機械学習コンペティションの国際的なプラットフォームです。
以上のことから、(ア)にはビッグデータ、(イ)にはILSVRCが入ります(A)。
第三次AIブームが到来した背景を理解しておきましょう。第三次AI プームは現在も終焉しておらず、その最中と考えられています。
画像認識において機械学習アルゴリズムの性能を競い合う競技会である ILSVRC (ImageNet Large Scale Visual Recognition Challenge)は、 ディープラーニング技術の発展に大きく貢献した。ILSVRCで登場した著名なディープニューラルネットワークとして、以下があげられる。(ア) は、3層の畳み込みニューラルネットワークを利用することで、従来の手法を大きく超える高い精度を獲得し、2012年のILSVRCで優勝した。 (イ)は、少ない層数で一度学習したのち、層を追加することで16層の深いネットワークを構築し、2014年に高い評価を受けた。(ウ) はInceptionモジュールを導入し、2014年に優勝した。(エ)はスキップ結合を採用することで従来より大幅に深いネットワークの学習に成功し、2015年に優勝した。
A.
(ア) AlexNet
(イ) MobileNet
(ウ) GoogLeNet
(エ) DenseNet
B. (ア) SENet (Squeeze-and-Excitation Networks)
(イ) MobileNet
(ウ) DenseNet
(工) ResNet (Residual Network)
C. (ア) SENet (Squeeze-and-Excitation Networks)
(イ) VGG (Visual Geometry Group)
(ウ) GoogleNet
(エ) DenseNet
D.
(ア) AlexNet
(イ) VGG (Visual Geometry Group)
(ウ) GoogLeNet
(工) ResNet (Residual Network)
ディープラーニングの発展の歴史に関する問題です。
ILSVRCは、画像認識の精度を競い合う競技会です。この競技会では、主に画像分類タスクにおいて機械学習アルゴリズムの性能を競い合います。2010年から2017年まで開催され、ディープラーニングの発展に大きく貢献しました。
ILSVRC 2012で優勝したAlexNetは、畳み込みニューラルネットワーク [第5章の解答1を参照] を利用することで、それまでの画像認識手法と比べて大幅に高い精度を達成しました。AlexNetの成功は、ディープラーニング分野におけるブレークスルーとなり、以降の研究や開発に大きな影響を与えました(ア)。
VGG (Visual Geometry Group) *2はILSVRC 2014で高い評価を受けたネットワークです。VGGでは、学習時に一度少ない層数で学習したのち、新たな層を追加することで層数を16層まで増やし、精度を向上しています(イ)。
GoogLeNetはILSVRC 2014で優勝したネットワークであり、Inception モジュールと呼ばれる独自の構造が導入されています [第6章解答2を参照]。 Inceptionモジュールは、異なるサイズの畳み込み層を並列に組み合わせることで、多様な特徴を捉えることができます (ウ)。
ResNet (Residual Network) はILSVRC 2015で優勝したネットワークであり、スキップ結合が導入されています [第5章 解答9を参照]。スキップ結合*は層を飛び越えた結合であり、これにより非常に深いネットワークでも効率的に学習を行うことができます(エ)。
MobileNetは、Depthwise Separable Convolutionと呼ばれる畳み込みを行うことで、従来の画像認識精度を保ちつつ計算量を抑えることができるネットワークです 【第6章 解答6を参照。
DenseNet (Densely Connected Convolutional Networks) は、 ResNetを改善したネットワークであり、スキップ結合を改良したDenseプロック*が導入されています [第6章の解答3を参照]。
SENet (Squeeze-and-Excitation Networks) 7は、畳み込み層の出力に重みづけを行うAttention*を採用したネットワークであり、ILSVRC 2017で優勝しています [第6章の解答4を参照]。
以上のことから、(ア)にはAlexNet、(イ)にはVGG、(ウ)には GoogLeNet、(工) にはResNetが入ります(D)。
試験対策:ILSVRCで優勝したネットワークについて、名前と優勝年だけでなく、 仕組みもセットで覚えておきましょう。
参考:Visual Geometry GroupはVGGの開発チームの名称であり、 それがそのままネットワークの名称になっています。
(参考文献多数あり メモ)
ディープラーニング以外の一般的な機械学習では、データからの (ア)を人間が行い、(ア)の結果をもとにモデルが学習を行う。 一方、ディープラーニングに用いられるモデルは人間の(イ)を模倣した構造を採用しており、最適な(ア)の方法が学習によって獲得される。
ディープラーニングとそれ以外の機械学習の差異について問う問題です。
ディープラーニング以外の一般的な機械学習では、データからの特徴抽出を人間が行い、その結果をもとにモデルが学習を行います(ア)。一方、ディープラーニングで用いられるモデルは、人間の脳の神経回路網に類似した構造を備えており、特徴抽出をデータから直接行うことができます(イ)。特に画像や文章といった非構造化データも扱うことができるため、今日の人工知能研究において非常に注目されています。
このように、最適な特徴量の抽出方法が学習によって獲得されることを、特徴表現学習と呼びます。ただし、ディープラーニングで用いられるモデルは、 人間の意思決定プロセスを模倣した構造を備えているわけではありません。
以上のことから、(ア)には特徴抽出、(イ)には脳の神経回路網が入ります(A)。
試験対策:ディープラーニングでは、最適な特徴量の抽出方法が学習によって獲得されることを覚えておきましょう。また、画像や音声などの非構造化データを扱うことができる点も重要です。