人工知能のイメージは、人によって大きく異なります。本節では、人工知能の定義に触れ、その理由を探ります。また、 大まかな分類、AI効果、ロボットとの違いなどについても学びます。
「人工知能(Artificial Intelligence)」という言葉は、1956年にアメリカで開催されたダートマス会議において、著名な人工知能研究者であるジョン・マッカーシーが初めて使った言葉です。この会議以降「人工知能」というものが学術的な研究分野の1つとして認められていったといわれています。
「人工知能」が、推論、認識、判断など、人間と同じ知的な処理能力を持つ機械 (情報処理システム) であるという点については、大多数の研究者の意見は一致しているといってよいでしょう。しかし、「人工知能とは何か」については、専門家の間でも共有されている定義は未だにありません。なぜなら、そもそも「知性」や「知能」自体の定義がないため、「人間と同じ知的な処理能力」の解釈が、研究者によって異なるからです。
たとえば、「人間と同じ知的な処理能力」を実現するに当たり、人間の右脳と左脳の機能を実現する必要があるのか、また、感情、心、価値観、パーソナリティーなどは人工知能の実現に必要な要素なのか、といったことについて、研究者の数だけ解釈が存在するのです。 「人工知能とは何か」という質問に対する興味深い回答例として、少なくとも会話上は自らを人工知能であると自認している ChatGPT(注)の回答を図に掲載しました。ただし、「人工知能とは何か」という同じ質問に対して、ChatGPTは多様な回答を返します。これは、人工知能という分野が広範囲にわたり、研究者によって多様なアプローチと応用が存在することを、ChatGPTが学習しているからでしょう。
(注) ChatGPTはAIの非営利研究機関であるOpenAIが開発したチャットサービスです。
専門家の間でさえ人工知能の定義が定まっていないのですから、一般人の人工知能に対するイメージはなおさら曖昧です。
人工知能として一般的にイメージしやすいのは、お掃除ロボットや自動運転自動車などのように、自ら考えて行動しているように見えるもの、つまり、周囲の状況によって自動的に振る舞いを変えるものでしょう。人工知能の有名な書籍である「エージェントアプローチ人工知能』(共立出版)でも、周囲の状況(入力)によって行動 (出力)を変えるエージェント (プログラム)として人工知能を捉えています。このような視点から人工知能をレベル別に分類したものが以下の4つです(図 1.2)
図1-2 人工知能のレベル別分類
■ レベル1: 単純な制御プログラム エアコンの温度調整、洗濯機の水量調整、電気シェーバーの深剃り調整など、あらかじめ単純な振る舞いがハードウェアやソフトウェアで決まっている製品がこのカテゴリに分類されます。これらの製品では、すべての振る舞いがあらかじめ決められており、その通りに動くだけです。これは制御工学やシステム工学と呼ばれる分野で長年培われた技術で、さまざまな製品で古くから利用されています。
■ レベル2: 古典的な人工知能 掃除ロボットや診断プログラムなど、探索・推論、知識データを利用することで、状況に応じて極めて複雑な振る舞いをする製品がこのカテゴリに属します。古典的な人工知能ですが、特定の分野で高い有用性を示し、広く実用化されている技術です。ディープラーニングにつながる人工知能の研究は、もともとこのレベルのものを人工知能として研究するところから始まっています。
■ レベル3: 機械学習を取り入れた人工知能 検索エンジンや交通渋滞予測など、非常に多くのサンプルデータをもとに入力と出力の関係を学習した製品がこのカテゴリに属します。このカテゴリは、パターン認識という古くからの研究をベースに発展し、2000年代に入りビッグデータの時代をますます進化しています。古典的な人工知能に属している製品も、近年この方式に移行しているものが数多くあります。
■ レベル4: ディープラーニングを取り入れた人工知能 機械学習では、学習対象となるデータの、どのような特徴が学習結果に大きく影響するか(これを特徴量と呼びます)を知ることはとても重要です。たとえば、土地の価格を予想するための学習を行う際には、「土地の広さ」という特徴が重要だとあらかじめ分かっていると、非常に効率よく学習できます。この特徴量と呼ばれる変数を、自動的に学習するサービスや製品がこのカテゴリに属します。ディープラーニングは、特徴量を自動的に学習する技術であり、画像認識、音声認識、自動翻訳などの分野で活用が進んでいます。これらは、従来の技術では人間レベルの能力を機械で実現することが難しいとされてきた分野です。実際、ディープラーニングの応用により、将棋や囲碁などの難易度が非常に高いゲームで世界トップレベルのプロ棋士を負かすレベルに到達しており、本物そっくりの画像や人間レベルの自然な文章を生成する技術も開発されています。
人工知能で何か新しいことが実現され、その原理が分かってしまうと、「それは単純な自動化であって知能とは関係ない」 と結論付ける人間の心理的な効果をAI効果と呼びます。 多くの人は、人間特有の知能であると思っていたものが機械で実現できてしまうと、「それは知能ではない」と思いたくなるようです。時代とともに「人工知能」のイメージが変化してしまうのも興味深い現象で、この効果により人工知能の貢献は少なく見積もられすぎていると主張するAI研究者もいます。
人工知能とロボットの研究をほぼ同じものと考えている人は少なくありません。しかし、専門家の間ではこの2つは明確に異なります。簡単にいえば、ロボットの脳に当たる部分が人工知能になります。 脳以外の部分を研究対象としているロボットの研究者は人工知能の研究者ではありませんし、人工知能の研究はロボットの脳だけを対象としているわけではありません(13)。たとえば、将棋や囲碁のようなゲームでは、物理的な身体は必要ありません。つまり、人工知能の研究とは「考える (知的な処理能力)」という「目に見えないもの」を中心に扱っている学問だと考えてよいでしょう。
!
人工知能の研究は、ブームと冬の時代を繰り返しながら発展してきました。本節では、汎用コンピュータであるエニアック (ENIAC) の誕生以降の人工知能研究の歴史について学びます。
1946年、アメリカのペンシルバニア大学でエニアック (ENIAC)という17,468本もの真空管を使った巨大な電算機が開発されました。これが世界初の汎用電子式コンピュータとされています(図1.4)。圧倒的な計算力を持つエニアックの誕生は、いずれコンピュータが人間の能力を凌駕するだろうという可能性を見出すきっかけとなりました。
人工知能という言葉は、エニアックの誕生からちょうど10年後の1956年にアメリカで開催されたダートマス会議において初めて使われました。ダートマス会議には、マーヴィン・ミンスキー、ジョン・マッカーシー、アレン・ニューウェル、ハーバート・サイモン、クロード・シャノンなど、後に人工知能や情報理論の研究で重要な役割を果たす著名な研究者たちも参加しました(図1.5)。知的に行動したり、思考したりするコンピュータ・プログラムの実現可能性について議論されました。 特にニューウェルとサイモンは、世界初の人工知能プログラムといわれるロジック・セオリストをデモンストレーションし、コンピュータを用いて数学の定理を自動的に証明することが実現可能であることを示しました。これはコンピュータが四則演算などの数値計算しかできなかったものであった当時、画期的なことでした。
(https://www.scienceabc.com/innovation/what-is-artificial-intelligence.html)より引用
1.3 人工知能研究のブームと冬の時代 人工知能研究は、これまで「ブーム」と「冬の時代」を何度か繰り返してきています。ここでは、人工知能の歴史を大まかにたどってみましょう (図1.6)
■ 第1次AIブーム (探索・推論の時代: 1950年代後半~1960年代) コンピュータによる「探索」や「推論」の研究が進み、特定の問題に対して解を提示できるようになったことがブームの要因です。東西冷戦下のアメリカでは、特に英語―ロシア語の機械翻訳が注目されました。しかし、迷路や数学の定理の証明のような簡単な問題(「トイ・プロブレム (おもちゃの問題)」)は解けても、複雑な現実の問題は解けないことが明らかになった結果、ブームは急速に冷め、1970年代には人工知能研究は冬の時代を迎えます。
■ 第2次AIブーム (知識の時代: 1980年代) コンピュータに「知識」を入れると賢くなるというアプローチが全盛を迎え、データベースに大量の専門知識を溜め込んだエキスパートシステムと呼ばれる実用的なシステムがたくさん作られました。日本では、政府によって「第五世代コンピュータ」と名付けられた大型プロジェクトが推進されました。しかし、知識を蓄積・管理することの大変さが明らかになってくると、1995年ごろからAIは再び冬の時代に突入します。
■ 第3次AIブーム (機械学習・特徴表現学習の時代:2010年~) ビッグデータと呼ばれる大量のデータを用いることで、人工知能が自ら知識を獲得する機械学習が実用化されました。また、知識を定義する要素(特徴量と呼ばれる対象を認識する際に注目すべき特徴を定量的に表したもの)を人工知能が自ら習得するディープラーニング (深層学習)が登場したことが、ブームの背景にあります。2012年にディープラーニングを用いたチームが画像認識競技で圧勝したことや2015年に人間の碁のチャンピオンにディープラーニングを用いた人工知能である AlphaGoが勝利するなど、象徴的な出来事が続きました。これらの出来事は、人間を超える「超知性」の誕生 (シンギュラリティー)の可能性に対する懸念を広め、不安と期待をさらに高めました。
2010年代中頃から、ディープラーニングの応用はさらに広がりを見せ、ディープラーニングを駆使して、創造的な画像や音楽、文章などを生み出す「生成AI」という分野の研究が活性化しました。画像生成の分野では、実在するかのような錯覚を覚えるほど精巧な画像や動画の生成が可能になり、その進歩は目を見張るものがあります。自然言語処理の分野では、言語データを効率的に学習し、それを基に自然な文章を生成できる「大規模言語モデル(Large Language Model, 略してLLM)」と呼ばれる技術や、それを応用したサービスが次々と開発されました。中でも、人間のように自然な会話が可能な「ChatGPT」というサービスは、その革新性とAIに詳しくない多くの一般人を巻き込んだという点で特に注目に値します。 2022年に米国の非営利研究機関であるOpenAIがこのサービスを公開すると、わずか2ヶ月程度でアクティブユーザー数が1億人を突破し、生成AIの技術を利用しない社会はもはや想像できないという認識が世界中に広がりました。この背景を受け、一部の専門家は、ChatGPTの登場を機にAIブームが新たな局面、「第4次AIブーム (生成AIの時代)」に突入したと考えています。 大まかに言うと、第1次AIブームは「探索・推論の時代」、第2次AIブームは「知識の時代」、第3次A1ブームは「機械学習と特徴表現学習の時代」であると言えるでしょう。ただし、より正確には、この3つは互いに重なり合っています。たとえば、第2次ブームの主役である知識表現も、第3次ブームの主役である機械学習も、本質的な技術の提案は、第1次ブームのときに既に起こっており、逆に、第1次ブームで主役だった探索や推論も、第2次ブームで主役だった知識表現も、今でも重要な研究として継続されています(図1.7)
本節では、人工知能の研究で議論されている問題を取り上げ、人工知能の実現可能性について考察を深めます。
現実世界の問題を、いきなりコンピュータを使って解こうとしてもうまくいかないのが普通です。問題が複雑すぎてコンピュータで取り扱うことが難しいからです。そこで、コンピュータで扱えるように、本質を損なわない程度に問題を簡略化したものを考えます。それがトイ・プロブレム (おもちゃの問題)です。
トイ・プロブレムを用いることで、問題の本質を理解したり、現実世界の問題に取り組んだりする練習をすることができます。また、トイ・プロブレムは簡潔かつ正確に問題を記述することができるので、複数の研究者がアルゴリズムの性能を比較するために用いることもできます。
たとえば、2つの部屋を移動できる掃除ロボットの問題を解くことを考えてみましょう (1.8)。ロボットはRoomlまたはRoom2にいると考える場合、現実世界のロボットはこの2つの部屋の間を連続的に移動するということを無視しています。 また、トイ・プロブレムではロボットは確実に掃除するという設定でも、現実世界では掃除に失敗する可能性がありますし、 掃除した部屋が再び汚れてしまうこともあり得ます。
第1次AIブームの時代、一見すると知的に見えるさまざまな問題をコンピュータが次々に解いていきました。たとえば、難解な数学の定理を証明したり、迷路やパズルを解いたり、チェスや将棋で人間との勝負に挑戦するなど大きな成功を収めました。しかし、これらは非常に限定された状況で設定された問題、いわゆるトイ・プロブレムであり、人工知能ではそのような問題しか解けないということが次第に明らかになっていきました。私たちが普段直面するような現実世界の問題は、トイ・プロブレムよりもずっと複雑なのです。
フレーム問題は、1969年にジョン・マッカーシーとパトリック・ヘイズが提唱した人工知能における重要な問題です。未だに本質的な解決はされておらず、人工知能研究の最大の難問とも言われています。
フレーム問題は、「今しようとしていることに関係のあることがらだけを選び出すことが、実は非常に難しい」ことを指し ます。哲学者のダニエル・デネットは次のような例を用いてこのフレーム問題の説明をしています。
洞窟の中には台車があり、その上にはロボットを動かすバッテリーがありますが、その横に時限爆弾が仕掛けられています。 (図1.9) ロボットは動くためにバッテリーが必要であるため、洞窟からバッテリーを取ってくるように命じられます。
洞窟からバッテリーを取ってくることに成功しますが、バッテリーを持ち出すと爆弾も一緒に運び出してしまうことを知らなかったため、時限爆弾も一緒に持ってきてしまい、爆弾が爆発してしまいます(図1.10)。
そこで、ロボット2号を作りました。ロボット2号は、爆弾も一緒に持ち出してしまうかどうかを判断できるように、「自分が行った行動の結果、副次的に何が起きるかを考慮する」ように改良されました。すると、ロボット2号はバッテリーを前に考え始め、「もし台車を動かしても、洞窟の天井は落ちてこない」 「もし台車を動かしても、洞窟の壁の色は変わらない」 「もし台車を動かしても、洞窟の地面や壁に穴があいたりしない」・・・・・・と、ありとあらゆることが起きる可能性を考えたせいで時間切れになり、爆弾が爆発してしまいました(図1.11)。
そこで、さらにロボット3号が作られました。ロボット3号は、「目的を遂行する前に、目的と無関係なことは考慮しないように」改良されました。すると、ロボット3号は関係あることとないことを仕分ける作業に没頭してしまい、無限に考え続け、洞窟に入る前に動作しなくなってしまいました(図1.12)。「洞窟の天井が落ちてこないかどうかは今回の目的と関係あるだろうか」 「壁の色は今回の目的と関係あるだろうか」 「洞窟の地面や壁に穴があいたりしないかどうかは今回の目的と関係あるだろうか」・・・・・・と、目的と関係ないことも無限にあるため、それらをすべて考慮しているうちに時間切れになり、自分のバッテリーが切れてしまったのです。
ボードゲームをするとか、機械を組み立てるとか、やろうとしていることが限定されている人工知能ではこのフレーム問題は生じません。しかし、いろいろな状況に対応する人工知能ではこの問題は無視できません。 フレーム問題は人間の場合も起きます。何も考えずに行動してしまい、思いもよらない事故が起きるのはロボット1号と同じです。また、その場でとるべき行動に迷ってしまい、何もできないのはロボット2号と同じです。行動を起こす前に、考えすぎて行動できなくなってしまうのはロボット3号と同じです(図1.13)。 しかし、人間はあらゆる状況について無限に考えてフリーズすることはありません。人間はこの問題をごく当たり前に処理しています。ですから、人間と同じように、つまり人工知能があたかもフレーム問題を解決しているかのようにふるまえるようにすることが研究目標の1つになります。
人工知能ができたかどうかを判定する方法については、歴史的に議論されてきました。有名なものに、イギリスの数学者アラン・チューリング(注)が提唱したチューリングテストがあります(図1.14)。これは、別の場所にいる人間がコンピュータと会話をし、相手がコンピュータだと見抜けなければコンピュータには知能があるとするものです。知能をその内部のメカニズムに立ち入って判定しようとすると極めて難しいことから、外から観察できる行動から判断せざるを得ないという立場を取っているのです。
チューリングテストは、人工知能の分野で知能の判定基準として参照されるだけでなく、具体的なソフトウェア開発の目標にもなっています。1966年にジョセフ・ワイゼンバウムによって開発されたイライザ (ELIZA)は、精神科セラピストの役割を演じるプログラムで、人間とコンピュータが会話を行う最初のプログラムでしたが、本物のセラピストと信じてしまう人も現れるような出来事でした。1991年以降、チューリングテストに合格する会話ソフトウェアを目指す ローブナーコンテストも毎年開催されています。
1950年の論文の中でアラン・チューリングは、50年以内に質問者が5分間質問した後の判定でコンピュータを人間と誤認する確率は30%になるだろうと予想しました。現在、会話ソフトウェアは進歩して合格に近いところまできていると言えますが、まだチューリングテストにパスするレベルには達していません。 (注) アラン・チューリングはチューリングマシンと呼ぶコンピュータの理論的基盤を与えたことで有名です。また、第二次世界大戦でドイツ軍が機密通信のために使用したエニグマの暗号解読に貢献した人物でもあります。
「強いAI」 「弱いAI」という言葉は、もともとは、アメリカの哲学者ジョン・サールが1980年に発表した「Minds, Brains, and Programs(心、脳、プログラム)」という論文の中で提示した区分です。この論文は、人工知能に肯定的な哲学者との間に論争を引き起こしました。 それぞれ次のように考える立場とされています。 - 強いAI・・・・・・適切にプログラムされたコンピュータは人間が心を持つのと同じ意味で心を持つ。また、プログラムそれ自身が人間の認知の説明である。 - 弱いAI・・・・・・コンピュータは人間の心を持つ必要はなく、有用な道具であればよい。 つまり、「強いAI」の立場では「人間の心や脳の働きは情報処理なので、本物の心を持つ人工知能はコンピュータで実現できる」と考えており、「弱いAI」の立場では「コンピュータは人間の心を模倣するだけで本物の心を持つことはできないが、 人間の知的活動と同じような問題解決ができる便利な道具であればよい」と考えています。 ジョン・サール自身は、人の思考を表面的に模倣するような「弱いAI」は実現可能でも、意識を持ち意味を理解するような 「強いAI」は実現不可能だと主張しました。彼は自らの立場を説明するために「中国語の部屋」という次のような思考実験を提案しています(図1.15)。
ある部屋に英語しか分からない人が閉じ込められます。その部屋の中には中国語の質問に答えることができる完璧なマニュアルがあり、それを使えば中国語の文字をマニュアルの指示通りに置き換えることで、中国語で受け答えができます。これを繰り返すと、部屋の外の人は部屋の中の人が中国語を理解していると判断するでしょう。しかし実際には英語しか理解できないのですから、マニュアルを使って中国語で受け答えができたからといって、中国語を理解していることにはなりません。したがって、まるで知能があるような受け答えができるかを調べるというチューリングテストに合格しても本当に知能があるかは分からないという議論です。
これは、チューリングテストを拡張した、心がどこに存在するのか、あるいは意味はどこにあるのか、という問題に対する思考実験だといえるでしょう。ジョン・サールは、「中国語の部屋」という思考実験を通して、コンピュータは記号操作を行っているだけで、心にとって本質的な意味論を欠いていると主張したのです。
「強いAI」が実現可能かという議論については、人工知能以外の分野の人々も巻き込んで行われています。たとえば、ブラックホールの研究で有名なスティーブン・ホーキングと共同研究をしたことで有名な数学者のロジャー・ペンローズは、『皇帝の新しい心ーコンピュータ・心・物理法則』(林一訳、みすず書房) という著書の中で、意識は脳の中にある微細な管に生じる量子効果(非常にスケールの小さい世界で生じる物理現象)が絡んでいるので、既存のコンピュータでは「強いAI」は実現できないと主張しています。
シンボルグラウンディング問題とは、1990年に認知科学者のスティーブン・ハルナッドにより議論されたもので、記号(シンボル)とその対象がいかにして結び付くかという問題です。フレーム問題と同様、人工知能の難問とされています。 人間の場合は、「シマ (Stripe)」の意味も「ウマ (Horse)」の意味もよく分かっているので、本物のシマウマ (Zebra) を初めて見たとしても、「あれが話に聞いていたシマウマかもしれない」とすぐに認識できます。「ウマ」という言葉を聞くと、タテガミがあり、ヒヅメがあって、ヒヒンと鳴く4本足の動物だというイメージと結び付き、「シマ」という言葉を聞くと、色の違う2つの線が交互に出てくる模様だというイメージと結び付くからです(図1.16)。
ところが、コンピュータは「記号 (文字)」の意味が分かっていないので、記号が意味するものと結び付けることができません。「シマウマ」という文字はただの記号の羅列にすぎず、シマウマ自体の意味を持っているわけではありませんから、 「シマのあるウマ」ということは記述できても、その意味は分かりません。初めてシマウマを見ても、「これがあのシマウマだ」という認識はできないのです。 ここでの問題は、コンピュータにとって、「シマウマ」という記号と、それが意味するものが結び付いていない(グラウンディングしていない)ことです。これはシンボルグラウンディング問題と呼ばれています(図1.17)
知能が成立するためには身体が不可欠であるという考え方があります。人間には身体があるからこそ物事を認知したり、思考したりできるという考えです。このようなアプローチは「身体性」に着目したアプローチと呼ばれています。
人間は身体のすみずみに張り巡らされた神経系を通して世界を知覚しますが、知覚した情報は膨大で複合的なものです。こうして得られた現実世界に関する豊富な知識に対して、「シマ」とか「ウマ」などの記号を対応付けて処理するようになりま身体を通して得た感覚と記号を結び付けて (シンボルグラウンディングして) 世界を認識するわけです。
コップというものを本当の意味で理解するには、実際にコップに触ってみる必要があるでしょう。ガラスに触ると冷たいという感覚や、落とすと割れてしまうという経験も含めて「コップ」という概念が作られていきます(図1.18)。「外界と相互作用できる身体がないと、概念はとらえきれない」というのが、身体性というアプローチの考え方です。
機械翻訳は、人工知能が始まって以来ずっと研究が続いています。1970年代後半はルールベース機械翻訳という仕組みが一般的でしたが、1990年代以降は統計的機械翻訳が主流になりました。これにより性能は飛躍的に向上しましたが、まだまだ実用レベルではありませんでした。機械翻訳が難しい最大の理由は、コンピュータが「意味」を理解していないことでした。
たとえば、「He saw a woman in the garden with a telescope.」 という英文を日本語に訳すことを考えてみてください。 ほとんどの人が「彼は望遠鏡で、庭にいる女性を見た」と訳すと思います。しかし、実はこの英文解釈は文法的には一意に定まらないのです。庭にいるのは女性なのか、彼なのか、望遠鏡を持っているのは彼なのか、女性なのか、この文を読んだだけでは決められません(図1.19).
統計的機械翻訳を使うと「彼は望遠鏡で、庭で女性を見た」という訳文になります。庭にいるのは男性であり、女性ではありません。しかし、人間にとっては、これは少し不自然に感じられます。
なぜ人間にはそのように感じられるかというと、それまでの経験から「望遠鏡を持っているのは男性の方が多い」「庭にいるのは女性の方が多い」といった知識があり、そこから「彼は望遠鏡で、庭にいる女性を見た」と解釈するのが正しいと判断しているからです。こういった知識をコンピュータに教えるためには、これらの知識をコンピュータに入れるしかありません。この場合だけに対処するのは簡単なことですが、同じことがありとあらゆる場面で発生するはずで、それらすべての知識を入れる作業を行うことは事実上不可能です。
このように、1つの文を訳すだけでも一般常識がなければ訳せないということが、統計的機械翻訳の問題点でした。人間が持っている一般常識は膨大で、それらの知識をすべて扱うことは極めて困難です。このように、コンピュータが知識を獲得することの難しさを、人工知能の分野では知識獲得のボトルネックと呼んでいます。
2010年頃から、ニューラル機械翻訳(注)というディープラーニングを応用した機械翻訳が登場しました。2016年11月に Googleが発表したGoogle翻訳では、このニューラル機械翻訳の技術が利用され、機械翻訳の品質が格段に向上したことが大きな話題となりました。
これに続き、2018年以降、人間レベルの自然な文章を生成する能力を持つ「大規模言語モデル」 (2章の2-3 「2.4 自然な文章を生成できる「大規模言語モデル」の登場」参照)と呼ばれる技術が登場しました。この技術は、文章の文脈を理解する能力に優れ、多様な言語への翻訳にも対応できます。翻訳だけでなく、文書の要約、質問応答、プログラムコードの作成など、多様な言語処理に対応できるのが大規模言語モデルの特徴です。一方で、ニューラル機械翻訳は翻訳に特化した技術であり、特定の言語から言語への翻訳や専門分野の翻訳において強みを発揮します。
このように翻訳の分野でもディープラーニングが利用されるようになったことで、知識獲得のボトルネックを乗り越え、人間を超えるレベルの翻訳機の実現が期待されています。
(注) 「ニューラル機械翻訳」では人間が言葉を理解するのと同じような構造で訳文を出力するといわれ、TOEIC900点以上の人間と同等の訳文も生成可能だともいわれています。
人工知能の定義は専門家の間ですら異なる。その説明として適切なものを1つ選べ。
3
人工知能は学術的な研究分野の1つとして認められており、国際学会も頻繁に行われています。
「人工」とは「人の手を加えた、自然のままではない」という意味で研究者の間で意見は一致しています。
人工知能という言葉をジョン・マッカーシーが最初に用いたのは、ダートマス会議です。
人工知能の定義に関する説明として、不適切なものを1つ選べ。
4
人工知能の定義は専門家の間でも共有されていないため、同じシステムを指して、それを人工知能だと主張する人と、それは人工知能ではないと考える人がいてもおかしくありません。「人間と同じ知的な処理能力を持つ機械 (情報処理システム)」という表現を使うとき、「人間と同じ知的な処理能力」という部分の解釈が人によって異なる可能性があります。人工知能の有名な書籍である『エージェントアプローチ人工知能 (共立出版)』の中では、「周囲の状況によって行動を変えるエージェント」として人工知能をとらえています。この定義に従えば、探索・推論、知識データや機械学習を利用しない製品 (シンプルな制御機構しか持たない製品) も人工知能を搭載した製品ととらえることができます。 【参照】:1-1「1.1人工知能とは何か」
機械学習を取り入れた人工知能に関する説明として、最も適しているものを1つ選べ。
4
機械学習は、非常に多くのデータサンプルを使って学習することで高い精度の学習を達成することができます。あらかじめ単純な振る舞いがハードウェアやソフトウェアで決まっている製品は、制御工学やシステム工学と呼ばれる分野で長年培われた技術を利用しており、機械学習を利用していません。機械学習は、データが持つ特徴 (構造やパターン) を学習するので、パターン認識という古くからの研究をベースにしています。
AI効果の例として、最も適切なものを1つ選べ。
2
1はチューリングテスト、3はシンボルグラウンディング問題、4はAIブームに便乗するマーケティング戦略に関する事例です。
「人工知能とロボットの研究に関する説明として、不適切なものを1つ選べ。
3
ロボットの脳に当たる部分は人工知能ですが、脳以外の部分を研究対象としているロボットの研究者は人工知能の研究者ではありません。また、人工知能の研究はロボットの脳だけを対象にしているわけではなく、ロボットの研究と異なり物理的な身体は必要ありません。つまり、人工知能の研究は 「考える(知的な処理能力)」という「目に見えないもの」を中心に扱っている学問だといえます。物理的な身体を必要としない将棋や囲碁のようなゲームを重要な研究対象としているのは、ロボット研究ではなく人工知能の研究です。 [参照] 1-1 「1.4人工知能とロボットの違い」
「人工知能が持つ知的な処理能力として、最も不適切なものを1つ選べ。
1
1は物理的なモノを動かす能力であり、「考える」という人工知能が持つ知的な処理能力ではありません。
以下の文章を読み、空欄に最もよく当てはまるものを1つ選べ。
1980年代に起こった第2次AIブームにおいては、( ) によって問題を解決する古典的な人工知能が台頭した。 1. 探索と推論 2. 機械学習 3. エキスパートシステム 4. ビッグデータ
3
「探索と推論」は第1次AIブーム、「機械学習」と「ビッグデータ」は第3次AIブームで中心的な役割を果たします。第2次AIブームの主役は、専門家の「知識」をデータベースに蓄積した「エキスパートシステム」です。
1956年に開催されたダートマス会議についての説明として、最も不適切なものを1つ選べ。
4
世界初の汎用電子式コンピュータであるエニアック (ENIAC)は、ダートマス会議の10年前に誕生し、いずれコンピュータが人間の能力を凌駕するだろうという可能性を見出すきっかけとなりました。
「人工知能研究50年来のブレイクスルー」と称されるディープラーニングだが、その手法自体は第3次AIブームが盛り上がる以前から提案されていた。ここ数年になって急速な盛り上がりを見せているのにはいくつかの理由がある。その内容として最も不適切なものを1つ選べ。
4
第2次AIブームの時期、日本政府は第五世代コンピュータプロジェクトに巨額の資金を投じました。1982年から1992年の11年間にわたり、約500億円の国家予算を投じて遂行されました。このプロジェクトの評価は賛否両論に分かれています。
トイ・プロブレムに関する説明として、最も不適切なものを1つ選べ。
1
「ハノイの塔」もチェスや将棋などと同様に明確なルールが定められたゲーム (非常に限定された状況で設定された問題)であり、トイ・プロブレムに分類されます。
人工知能研究の歴史と注目されてきた技術に関する説明として、最も適切なものを1つ選べ。
4
初期の人工知能は、現実の問題を単純化した「トイ・プロブレム」を解くことはできましたが、現実の世界で直面するような複雑な問題を解くことはできませんでした。知識ベースの人工知能が注目されたのは第2次AIブーム、人工知能が自ら認識に必要な特徴量を見つけることができる機械学習(ディープラーニング)の研究が活性化するのは第3次AIブームです。
第2次AIブームでは、いかにして機械に知識を与えるかが大きなテーマになった。例えば自然言語処理の研究では、言葉同士の意味関係を定義する手法が提案された。しかし仮に言葉同士の意味関係が分かったとしても、現実の概念と結び付けられるかどうかという問題が待ち受けている。この問題の語句として、最も適切なものを1つ選べ。
1
言葉で表現した概念同士の意味関係が分かったとしても、言葉はあくまでも「記号」であり、実物そのものではありません。記号だけでは、実際にそれが何を意味しているのかは本当の意味で理解できない(記号と現実を接続できない) というシンボルグラウンディング問題は解決できません。
異なる部屋にいる人間とコンピュータとが対話をし、話し相手がコンピュータであることを人間が見抜けなければ、コンピュータには知能があるとする判定方法を使ったテストに合格しても、「本当に知能があるかは分からない」という議論として最も適切なものを1つ選べ。
1
ジョン・サールは「中国語の部屋」という思考実験を通して、チューリングテストに合格しても、コンピュータは記号操作をしているだけで本当に知能があるかは分からないということを主張しました。
フレーム問題についての説明として、最も適切なものを1つ選べ。
1
2はトイ・プロブレムに関する説明、3はシンボルグラウンディング問題に関する説明、4は知識獲得のボトルネックに関する説明です。
ルールベース機械翻訳の説明として、最も不適切なものを1つ選べ。
4
ルールベース機械翻訳は、人間が用意したルール (文法法則や辞書情報)を使って形式的に翻訳を行います。この方法は、大量の言語データ(コーパス)を必要とする統計的機械翻訳や、ディープラーニングを応用したニューラル機械翻訳と比べて計算量は少なくて済むという利点がありますが、多様な口語表現に柔軟に対応するのが難しいというデメリットもあります。
以下の文章を読み、空欄 (A) (B) に最もよく当てはまるものを1つ選べ。
1990年代以降、(A) と呼ばれる機械翻訳が一般的に用いられるようになった。(A)は以前の翻訳手法と比較して、性能は飛躍的に向上したが、文法的には正しいものの人間には不自然に感じられる訳を出力することがあり、実用レベルとはいえなかった。この理由の1つとして、人間が持っている一般常識を人工知能に習得させることは困難である (B) が挙げられる。
1
フレーム問題は「今行おうとしていることに関係のある事柄だけを選び出すことが、実は難しい」という人工知能にとっての難題です。ニューラル機械翻訳の登場により、機械翻訳の品質が格段に向上し、人間を超えるレベルの翻訳の実現が期待されています。
フレーム問題に関する説明として、不適切なものを1つ選べ。
4
フレーム問題は未だに本質的な解決はされておらず、人工知能研究の最大の難問とも言われています。何も考えずに行動して事故にあったり、とるべき行動に迷って何もできなかったり、考えすぎて行動できなかったりするのは人間も同じなので、フレーム問題は人間にも起きると考えられます。しかし、人間はあらゆる状況について無限に考えてフリーズすることはありません。人間と同じように、あたかもフレーム問題を解決しているように振る舞えるようにすることが人工知能の研究目標の1つになります。 [参照]1-3 「1.2 フレーム問題」
チューリングテストに関する説明として、不適切なものを1つ選べ。
1
チューリングテストは「人工知能の会話能力レベル」を判定するためではなく、「人工知能ができたかどうか」を判定するためのテストとして提案されました。このテストでは、別の場所にいる人間がコンピュータと会話をし、相手がコンピュータだと見抜けなければコンピュータに知能があるとするものです。チューリングは、知能があるかどうかを判定することの難しさを認識しており、知能を内部のメカニズムに立ち入って判定しようとすると極めて困難になることから、外から観察できる行動から判断せざる得ないという立場を取っています。 [参照]1-3 「1.3 チューリングテスト」
強いAIと弱いAIに関する説明として、不適切なものを1つ選べ。
2
ジョン・サールが提示した「強いAI」 「弱いAI」という区分は、人工知能に肯定的な哲学者との間に論争を引き起こしました。ジョン・サール自身は 「強いAI」は実現不可能だと主張し、自らの立場を説明するために「中国語の部屋」という思考実験を提案しました。「中国語の部屋」では、英語しか分からない人が部屋に閉じ込められており、部屋の外にいる人が部屋の中の人に中国語で質問をする状況を考えます。部屋の中に、中国語の質問に答えることができる完全なマニュアルが用意されていれば、それを使って中国語で質問に答えることができるので、部屋の外の人には部屋の中にいる人が中国語を理解していると判断してしまいます。しかし実際は中国語を理解していないので、中国語で答える知能があるような受け答えができるかどうかを判定するチューリングテストに合格しても本当に知能があるかは分からないという議論です。 【参照】1-3 「1.4 強いAIと弱いAI」
シンボルグラウンディング問題に関する説明として、不適切なものを1つ選べ。
2
コンピュータは記号 (例えば文字)の意味が分かっていないので、記号が意味する対象と記号を自動的に結びつけることができません。人間の場合はシンボルグラウンディング問題が起きません。それは人間が身体を通して概念を獲得しているからであり、外界と相互作用できる身体がないと概念はとらえきれないと考えるのが身体性のアプローチです。
知識獲得のボトルネックに関する説明として、不適切なものを1つ選べ。
2
統計的機械翻訳はインターネットに蓄積された膨大な文字データを利用して文単位のレベルで翻訳できましたが、一般常識(日常的な常識)が必要とされるレベルの翻訳はできませんでした。ディープラーニングを使ったニューラル機械翻訳は、人間が言葉を理解するのと同じような構造で訳文を出力すると言われ、TOEIC900点以上の人間と同等の訳文も生成可能だと言われています。
特徴量に関する説明として、不適切なものを1つ選べ。
4
特徴表現学習をする機械学習の場合は、コンピュータが自動的に特徴量を抽出するため、特徴量が意味することを本当の意味で理解することはできません。ディープラーニングは特徴表現学習をする機械学習の1つです。「判断理由を説明できないブラックボックス型の人工知能」だといわれているのはディープラーニングであり、全ての機械学習がブラックボックス型というわけではありません。この問題に対処することを目的に、XAI (Explainable Al, 説明可能AI)の研究も活性化しています。
ある店舗のある日の午後のビールの売り上げ予想のために用いる特徴量として適切ではないと考えられるものを1つ選べ。
4
特徴量は数値で表現できるデータの特徴です。上記の選択肢は、いずれも数値化できます (天気の場合は、晴れ「4」、曇り「3」、雨「2」、雪「1」 のように数値を対応付けることで数値化できる)。ここで予想しているのはある店舗のある日の午後のビールの売り上げなので、前日の購買者の平均年齢を特徴量として利用しても意味がありません。
未来学者レイ・カーツワイルが主張する 「シンギュラリティー (技術的特異点)」に関する説明として、不適切なものを1つ選べ。
1
レイ・カーツワイル自身は「シンギュラリティーが起きること」と「人工知能が人間よりも賢くなること」を区別して考えており、「人工知能が人間よりも賢くなる年」は2029年、「シンギュラリティーが起きる年」は2045年だと予想しています。特異点とはある基準が適用できなくなる点のことを指します。たとえば、重力特異点は一般的な物理法則が成り立たなくなる点であり、その点において何が起きるか予想できません。同様に、レイ・ カーツワイルは「シンギュラリティー (技術的特異点)」が起きると、人工知能が自ら知的システムを改善するスピードが無限大になり、何が起きるか予想ができなくなると主張しています。