人工知能は、人間のような知能的な処理能力をもつ情報処理システムである。近年では、人工知能を実現する技術として機械学習が注目され、特に機械学習の一分野である(ア)が盛んに研究されている。
ディープラーニング以外の一般的な機械学習では、データからの( ア )の抽出を人間が行い、その結果をもとにモデルが学習を行う。一方、ディープラーニングでは、あるデータに対する最適な( ア )を学習している。これは( イ )と呼ばれる。
( ア )は、1998年にヤン・ルカンによって提案された初期の畳み込みニューラルネットワーク(CNN)である。
| 1等 | 2等 | はずれ | |
|---|---|---|---|
| 当選確率 | $\frac{1}{10}$ | $\frac{3}{10}$ | $\frac{6}{10}$ |
| 賞金(円) | 1000 | 500 | 0 |
(ア)ランダムフォレストは、学習時に複数の決定木を構築する
(イ)ランダムフォレストは、ブースティングを行う手法である
(ウ)ランダムフォレストは、回帰タスクに用いることができる
(エ)ランダムフォレストは、分類タスクに用いることができる
( ア )パーセプトロンは、入力層、複数の隠れ層、および出力層から構成されるニューラルネットワークである。
(ア)key
(イ)item
(ウ)query
(エ)value
( ア )は、1970年頃にテリー・ウィノグラードによって開発されたシステムである。( ア )はプランニングの技術を活用しており、コンピュータ上の「積み木の世界」の中で、英語による指示によって物体を動かすことができる。
( ア )は、方策勾配法の計算を行う際に用いられる強化学習のアルゴリズムであり、AlphaGoなどに活用されている。
(ア)GPU (Graphics Processing Unit)
(イ)TPU (Tensor Processing Unit)
(ウ)QPU (Quantum Processing Unit)
(エ)CPU (Central Processing Unit)
ミニバッチ学習において、抽出したデータを用いてパラメータの更新を行う一連の操作の単位を( ア )と呼ぶ。複数回の( ア )によりパラメータを更新し、すべての訓練データを一巡したとき、1( イ )と数える。ニューラルネットワークの学習では、( イ )数を1より大きい値に設定し、複数回にわたって訓練データを学習させることが多い。
( ア )は、単語の分散表現を学習できるライブラリであり、2016年に当時のフェイスブックによって提案された。( ア )は、単語をさらに細かい単位に分割することによって、訓練データにない語彙に対しても埋め込みを計算できるという特徴がある。
人間は、五感や経験などを通して「リンゴ」など文字で表された概念を認識する。高度な人工知能を実現するためには、このような( ア )によるアプローチで、環境との相互作用を行う必要があるという考え方がある。
( ア )は、次元の増加に伴い、計算量などが指数的に増える現象である。機械学習では、特徴量の数(次元)が非常に多い場合に、( ア )が問題となりうる。( ア )を回避するために、次元削減などが行われる。次元削減を行う教師なし学習の代表的な手法として、( イ )が挙げられる。
( ア )は、エンコーダとデコーダで構成されるニューラルネットワークのアーキテクチャである。( ア )を用いることで、特徴量の次元削減などを行うことができる。
(ア)Rainbowは、DQN (Deep Q-Network) の派生手法など、7つの手法を組み合わせたものである
(イ)Rainbowは、残差強化学習を行う手法である
(ウ)Rainbowは、Atari2600をプレイすることができる
(エ)Rainbowは、複数のエージェントを用意し、それらの相互作用を加味しながら学習を行う
( ア )は、CRISP-DMを拡張したフレームワークとして、2021年に提案された。( ア )では、AIを活用したプロジェクトにおいて特有な運用時のモニタリングなどが加味されている。
( ア )関数は、気温や湿度といった連続的な確率変数の確率分布を表現する関数の総称である。( ア )関数を用いることで、確率変数が、ある範囲内の値をとる確率を求めることができる。
主に1970年代〜1980年代にかけて研究された( ア )は、ある専門知識に関するデータである知識ベースを用いて構築される。ただし、知識ベースを構築するのは一般に容易ではなく、専門家から知識をうまく引き出すための知的な( イ )に関する研究が行われた。
( ア )は、自己回帰モデルを拡張した手法である。( ア )は、複数の時系列データを入力として受け取り、時系列予測を行うことができる。
ニューラルネットワークにおいて、信用割当問題とは「各ニューロンが出力を改善するために、予測結果からどのようにフィードバックを受ければよいか」という問題である。( ア )は、出力層から勾配を順にフィードバックすることで、ニューラルネットワークにおける信用割当問題を解決していると考えることができる。
( ア )は、エンコーダ、デコーダと呼ばれる2つのリカレントニューラルネットワーク (RNN) で構成されるネットワークである。( ア )では、入力と出力の長さが( イ )を扱うことができ、たとえば( ウ )のようなタスクを解くことができる。
学習済みモデルを用いて予測を行う際、その予測値が入力データにおける人種や性別といった特定の属性に対して偏ってしまうことがある。このようなバイアスを( ア )バイアスと呼ぶ。
機械学習は、第( ア )次AIブームにおける主要な研究対象のひとつである。機械学習によって、大量のデータからパターンを自動的に抽出し、予測や分類を行うことができる。たとえば、メールの内容からそのメールが不適切かどうかを判定する( イ )フィルタや、ユーザーの購買履歴などにもとづいて商品などを推薦する( ウ )エンジンに、機械学習を応用することができる。
( ア )は、窓を移動させながら、その窓内の平均値や最大値を出力することで、ある層への入力データから特徴を取り出す処理である。
( ア )は、2017年に提案された畳み込みニューラルネットワーク (CNN) である。( ア )は、ニューラルネットワークの構造を探索する技術を活用した結果得られたネットワークである。
( ア )は、学習データに不適切なデータを混入させ、モデルに誤った学習をさせる攻撃である。また、( イ ) Attackは、入力データに細工を施し、学習済みモデルの推論結果を操作する攻撃である。
( ア )は、視覚野の神経細胞を模した初期の画像認識ネットワークであり、1979年に福島邦彦によって提案された。
(ア)バギング
(イ)パディング
(ウ)ブースティング
(エ)プーリング
| 予測 | |||
|---|---|---|---|
| 陽性 (Positive) | 陰性 (Negative) | ||
| 正解 | 陽性 | (ア) | (イ) |
| 陰性 | (ウ) | (エ) |
( ア )パラメータは、機械学習モデルの構造などを決定する定数であり、モデルのパラメータを最適化する前に設定するものである。
畳み込み層は、同じノード数間の全結合層と比較して( ア )であり、特徴量の次元が大きい画像データを効率的に扱うことができる。また、画像データを扱うネットワークでは、画像に写る物体の位置移動に頑健であることが好ましい。畳み込みニューラルネットワーク(CNN)では、畳み込み層とプーリング層を組み合わせることで、ネットワークへの入力データに対する位置( イ )を獲得できる。
( ア )は、自然言語処理に用いられる事前学習モデルであり、2018年にオープンAIによって発表された。( ア )は、Transformerのデコーダの構造を取り入れたネットワークである。
人工知能(AI : Artificial Intelligence)は、1956年にアメリカで開催された( ア )会議において、ジョン・マッカーシーによって初めて提言されたといわれている。
$\epsilon$-greedy方策は、多腕バンディット問題を解く際などに用いられるアルゴリズムである。$\epsilon$-greedy方策では、一定の確率で( ア )と( イ )のどちらかを行う。( ア )では、すべてのスロットマシンからランダムに選択を行い、( イ )では、過去の試行結果から最も当たりの多かったスロットマシンを選択する。
( ア )は、「ある事柄を説明するためには、必要以上に多くを仮定するべきでない」という機械学習モデルの構築の指針である。( ア )に従い、モデルの複雑さを考慮して評価を行う際には、( イ )が用いられることがある。( イ )は、モデルの予測精度と複雑さのトレードオフを考慮した評価指標である。
( ア )は、多人数対戦型ゲームであるDota 2において、2018年に当時の世界トップレベルのプレイヤーで構成されたチームに勝利したゲームAIである。( ア )では、マルチエージェント強化学習の手法が用いられている。
転移学習とは、事前学習済みモデルを異なるタスクに転用することを指す言葉である。転移学習において、転移先のタスクにおける学習データを全く用いないことを( ア )と呼ぶ。また、ごく少量の学習データだけを用い、新たなタスクを解くネットワークを学習することを( イ )と呼ぶ。
組織間での共有を前提としたデータは、( ア )の要件をすべて満たさないため、( ア )としては保護することができない。( イ )は、不正競争防止法においてこのようなデータを保護するための概念である。
( ア )は、学習時に適用するデータ拡張手法を決定する戦略であり、2019年にグーグルによって発表された。
人工知能(AI:Artificial Intelligence)に関する基礎的な知識を問う問題です。
機械学習は、大量のデータからパターンを自動的に抽出し、予測や分類を行う人工知能分野の技術です。
ディープラーニングは機械学習の一分野であり、画像処理や自然言語処理などへの応用が盛んに研究されています(C)。
エキスパートシステムは、専門家が持つような知識にもとづいた推論で、複雑な問題を解くようなコンピュータシステムです。第二次AIブームの技術として知られていますが、機械学習の一分野ではありません(A)。
RPA(Robotic Process Automation)は、人間が行う作業をソフトウェアによって代行する技術であり、機械学習の一分野ではありません(B)。
人工無能は、あらかじめ人間が設定したパターンによって機械的に応答するプログラムであり、機械学習の一分野ではありません(D)。
[第1章、第2章、第3章]
探索木の探索手法に関する知識を問う問題です。
深さ優先探索は、最も深いノードに達するまで、可能な限り深く探索する探索方法です。1つの経路を進み、これ以上進めなくなったところで引き返し、次の候補の経路を進みます(A、B、D)。
Cは、スタート地点に近いノードから順に探索していく幅優先探索による探索です。
[第2章]
オントロジーに関連するキーワードを問う問題です。
ライトウェイトオントロジーは、正確性よりも実用性を優先する考え方にもとづいて構築するオントロジーです(B)。
ヘビーウェイトオントロジーは、知識をどのように記述すべきかを哲学的に考察し、正確性を重視して構築するオントロジーです(A)。
ラージウェイトオントロジー、スモールウェイトオントロジーという用語は一般的ではありません(C、D)。
[第2章]
教師あり学習に分類される代表的な手法について問う問題です。
サポートベクターマシン(SVM)、ランダムフォレスト、AdaBoostは、教師あり学習に分類される代表的な手法です(A、B、C)。
k-meansは、階層なしクラスタリングの代表的な手法であり、教師なし学習に分類されます(D)。
[第3章]
決定木を用いるアンサンブル学習の手法について問う問題です。
ランダムフォレストは、弱学習器に決定木を用い、バギングによってアンサンブル学習を行う手法です(D)。
AdaBoostやXGBoostは、ブースティングによるアンサンブル学習を行う手法です。その弱学習器として、決定木や線形回帰が用いられます(A、B)。
サポートベクターマシン(SVM)では、決定木は用いられません(C)。
[第3章]
特徴量の次元削減を行う代表的な手法について問う問題です。
与えられたデータを何らかの方法で圧縮し、その次元数を減らすことを次元削減と呼びます。機械学習では、特徴量の個数(次元)が非常に大きくなることがあり、計算量などの観点から次元削減を行うことが有効な場合があります。
次元削減を行う代表的な手法として、主成分分析(PCA:Principal Component Analysis)、特異値分解(SVD:Singular Value Decomposition)、多次元尺度構成法(MDS:Multi-Dimensional Scaling)、t-SNE(t-Distributed Stochastic Neighbor Embedding)があげられます(A、C、D)。
k-meansは階層なしクラスタリングの手法であり、次元削減を行う手法ではありません(B)。
試験対策 次元削減を行う代表的な手法名を覚えておきましょう。
[第3章]
Q学習に関する知識を問う問題です。
ある行動や状態によって得られる将来の累積報酬を価値といい、行動に関する価値を表す関数を行動価値関数(Q値)といいます。 行動価値関数を最適化する手法として、Q学習やSARSAがあげられます(B)。
方策勾配法は、方策をあるパラメータを用いた関数で表し、累積報酬を最大化するようにそのパラメータを学習することで、方策そのものを学習する手法です(C)。
R学習や状態勾配法という用語は強化学習において一般的ではありません(A、D)。
[第3章]
分類タスクにおける代表的な評価指標について問う問題です。
正解率は、予測結果全体に対して、陽性、陰性が正しく予測された割合を表す指標です(A)。
適合率は、陽性と予測されたもののうち、実際に陽性であった割合を表す指標です(B)。
再現率は、実際に陽性であるもののうち、陽性と予測された割合を表す指標です(C)。
F値は、適合率と再現率の調和平均で表される指標です(D)。
[第3章]
ディープラーニングの特徴に関する知識を問う問題です。
ディープラーニングでは、それ以外の一般的な機械学習手法とは異なり、あるデータに対する最適な特徴量を学習します。 これを特徴表現学習と呼びます。
したがって、(ア)には特徴量、(イ)には特徴表現学習が入ります(B)。
能動学習は、正解ラベルが付いていない大量のデータに対し、適応的にラベルを付与するデータを選択する手法です。
[第4章]
分類タスクに用いられる誤差関数について問う問題です。
分類タスクに用いられる代表的な誤差関数として、交差エントロピーがあげられます(C)。
AUCやF値は、分類タスクに用いられる評価指標であり、誤差関数ではありません(A、D)。
MAEは、回帰タスクに用いられる誤差関数です(B)。
試験対策 誤差関数と評価指標を混同しないように注意しましょう。 誤差関数は機械学習モデルのパラメータを最適化するために用いられ、評価指標は学習済みモデルの精度評価に用いられます。
なお、ここで用いられている誤差関数という単語は、一般的には損失関数と呼ばれます。 G検定では、損失関数のことを誤差関数と呼ぶ傾向があるので、試験ではこの点に注意しましょう。
[第4章]
勾配降下法の代表的な手法について問う問題です。
勾配降下法は、学習を効率的に進めるために工夫された手法が数多く提案されています。 代表的なものとして、発表の古い順にモーメンタム、AdaGrad、AdaDelta、RMSprop、Adam、AdaBound、AMSBoundなどがあげられます(A、C、D)。
AdaBoostは、ブースティングによるアンサンブル学習を行う教師あり学習の手法です(B)。
[第3章、第4章]
畳み込みに関連するキーワードについて問う問題です。
フィルタは、畳み込みを適用するために入力データに重ねるパラメータの集合です(A)。 なお、フィルタのことをカーネルと呼ぶ場合があります。
ストライドは、畳み込みを適用する際にフィルタを移動させる間隔です(B)。
パディングは、入力データの周囲を0などの定数で補完するテクニックです(C)。
画像におけるRGBの次元を表す概念は、チャンネルと呼ばれます(D)。
[第5章]
ResNetの概要や構造に関する知識を問う問題です。
ResNetは、ILSVRC 2015で優勝した畳み込みニューラルネットワーク(CNN)です。 スキップ結合とボトルネック構造を採用し、非常に深いネットワーク構造の学習を可能にしました(A、B、D)。
Inceptionモジュールを導入したネットワークは、GoogLeNetです(C)。 GoogLeNetは、ILSVRC 2014で優勝しています。
[第2章、第5章]
Transformerに用いられているAttentionの特徴について問う問題です。
Source-Target Attentionは、デコーダに入力文の情報を伝達するための機構です。 Encoder-Decoder Attentionと呼ばれることもあります(A、B)。
なお、Transformerでは、文章内の単語の順番に関する情報を保持するために位置エンコーディングと呼ばれる計算が用いられます。
Self-Attentionは、文章内の単語間の関連性を捉えるための機構です(C)。
Multi-Head Attentionは、Self-Attentionを並列に複数配置したものです(D)。
[第5章]
LeNetに関する知識を問う問題です。
LeNetは、1998年にヤン・ルカンによって提案された初期のCNNです。 畳み込み層とプーリング層を交互に複数回重ねた後、全結合層を配置した構造をもっています(A)。
ネオコグニトロンは、1979年に福島邦彦によって提案された初期の画像認識ネットワークです(B)。
AlexNetは、ILSVRC 2012で優勝したCNNです(C)。
GoogLeNetは、ILSVRC 2014で優勝したCNNです(D)。
[第6章]
画像分類タスクに用いられるさまざまなネットワークについて問う問題です。
MnasNetは、NAS(Neural Architecture Search)の技術を用い、計算量を抑えられるように工夫して構造探索を行うことで得られたネットワークです。 MnasNetはCNNであり、画像分類タスクに用いられます(A)。
Vision TransformerやSwin Transformerは、自然言語処理に用いられるネットワークであるTransformerを画像認識に応用したネットワークです(C、D)。
BERTは、Transformerのエンコーダの構造を取り入れた事前学習モデルであり、自然言語処理に用いられます(B)。
[第6章]
代表的な文章の解析手法に関する知識を問う問題です。
形態素解析は、文章や単語を意味のある最小単位に分割したり、品詞を付与したりする手法です。 たとえば "players" という単語を "play"、"er"、"s" というように分割します(C)。
主語や目的語といった文章の構造を解析する手法は、構文解析と呼ばれます(A)。
形態素解析は、単語をベクトルで表現する手法ではありません(B)。
形態素解析は、単語間の意味関係をグラフ構造で表す手法ではありません(D)。
試験対策 形態素解析や構文解析の具体的な内容を理解しておきましょう。
[第6章]
WaveNetに関する知識を問う問題です。
WaveNetは、音声生成タスクを解くために設計されたネットワークです(D)。
WaveNetは、文章要約や文章生成を解くために設計されたネットワークではありません(A、C)。
また、話者識別を解くために設計されたネットワークではありません(B)。
参考 WaveNetは、音声生成のほかに音楽生成を行うこともできます。
[第6章]
ドメインランダマイゼーションに関する知識を問う問題です。
sim2realの考え方を用いて学習を行う場合、シミュレータと実世界の環境に差が生じ、モデルを実世界に適用する際に性能が低下することがあります。
そこで、摩擦や光源といった環境のパラメータをランダムに決め、複数のシミュレータを生成して学習を行うことで、この課題を解決できることがあります。 この手法をドメインランダマイゼーションと呼びます(C)。
ドメインミニマイゼーションという用語は一般的ではありません(A)。
ランダムサーチやグリッドサーチは、機械学習モデルのハイパーパラメータを探索する際などに用いられる手法です(B、D)。
[第6章]
CAMに関する知識を問う問題です。
CAMは、学習済みモデルにおける特徴マップの値を利用し、モデルが入力データのどの部分に注目したかを可視化する手法です(A)。
Permutation Importanceは、検証データに対する予測において、個々の特徴量がどの程度重要であったかを求める手法です。 重要度を求める際には、学習済みモデルにおける特徴マップの値は利用されません(B)。
LIMEは、ある入力データに対する予測において重要であった特徴量を求める手法ですが、学習済みモデルにおける特徴マップの値を利用するものではありません(C)。
SHAPは、ある特徴量が予測値に与えた影響の度合いを、Shapley値と呼ばれる値によって求める手法です。 Shapley値の計算には、学習済みモデルにおける特徴マップの値は利用されません(D)。
[第6章]
AIの開発プロセスの流れに関する知識を問う問題です。
AI開発では、本格的な開発を行う前にデータ分析や実験的なモデル構築などを行い、プロジェクトの実現可能性を見積もるアプローチが取られることがあります。 これをPoC(Proof of Concept)と呼びます(A)。 選択肢B、C、Dは不適切な記述です。
[第7章]
AIシステムの開発や実装に関連するキーワードを問う問題です。
Dockerは、システムを動かすための仮想環境を構築するためのツールです(C)。
なお、AI開発に広く用いられているプログラミング言語としてPythonがあげられ(B)、ブラウザ上でPythonなどのコードの編集や実行を手軽に行えるツールとしてJupyter Notebookがあげられます(D)。
Pythonでディープニューラルネットワークを実装するための代表的なライブラリとして、PyTorchやTensorFlowがあげられます(A)。
[第7章]
期待値の計算方法について問う問題です。
離散的な確率変数における期待値は、確率変数がとる値と、その確率の積の総和によって求めることができます。 本問では、くじ引きの賞金が確率変数に該当し、それらに対する当選確率が離散的な確率分布として表で与えられています。
したがって、このくじ引きにおける期待値は、1000×1/10 + 500×3/10 + 0×6/10 = 250(円)です(A)。
[第8章]
要配慮個人情報に関する知識を問う問題です。
人種や社会的身分のように、本人に対する不当な差別や偏見が生じないように特別な配慮を要する個人情報は、要配慮個人情報と呼ばれます(B)。
仮名加工情報とは、個人情報に含まれる記述等の一部を削除することなどにより、他の情報と照合しない限り特定の個人を識別することができないように加工した個人情報のことです(A)。
個人識別符号とは、それそのものから特定の個人を識別することができるものです(C)。 保有個人データとは、個人データのうち、個人情報取扱事業者が、開示や第三者への提供の停止などを行う権限を有するものです(D)。
[第9章]
NDA(秘密保持契約)に関する知識を問う問題です。
「AI・データの利用に関する契約ガイドライン」では、AIの開発プロセスをアセスメント、PoC(Proof of Concept)、開発、追加学習の4つの段階に分類し、それぞれにおいて個別に契約を結ぶことを提唱しています。
NDAは、モデルの学習のために提供するデータ等の秘密情報の取扱いについて規定したもので、本ガイドラインではアセスメントの段階で締結することを提唱しています(D)。
GDPRは、EU域内の個人データやプライバシーの保護に関する規則であり、契約を表すものではありません(A)。
ELSIは、倫理的・法的・社会的影響を一体のものとして検討しようという試みであり、契約を表すものではありません(B)。
PoCは、AIの開発プロセスのひとつであり、契約を表すものではありません(C)。
[第9章]
AIガバナンスに関連する概念について問う問題です。
国家等によって明確に規定された法律による規制をハードローと呼びます。
一方、私的な取り決めなどによって自主的に行われる規制をソフトローと呼びます(A、B)。
ロングロー、ショートローという用語は一般的ではありません(C、D)。
[第10章]
モデル汚染に関する知識を問う問題です。
モデル汚染は、攻撃者が細工をした事前学習済みモデルを配布して利用させることで、モデルの出力を操作したり、悪意のあるプログラムを実行させたりする攻撃です(D)。
Adversarial Attackは、機械学習モデルの予測を意図的に誤らせる目的で作られた入力データ(Adversarial Example)を利用した攻撃の総称です(A)。
Attention Attackという用語は一般的ではありません(B)。
データ汚染は、学習データに不適切なデータを混入させ、モデルに誤った学習をさせる攻撃です(C)。
[第10章]
AI効果に関する知識を問う問題です。
AI効果は、「AIが実現しているのは自動化などの単純な処理であり、知能をもつものではない」と人間が考える心理効果です(B)。
イライザ効果は、イライザ(ELIZA)のようなルールベースの処理を行う会話型コンピュータなどに対し、知性があるのではないかと人間が錯覚する心理効果です(A)。
シンギュラリティは、人工知能が自身よりも賢い人工知能を作ることができるようになった時点で、さらに高い知能をもつ存在を作り続けるようになり、人間の想像力が及ばない超越的な知性が誕生するという仮説です(C)。
不気味の谷は、ロボットなどが人間に似てくると、あるレベルの類似度までは共感度や親近感が上昇していくものの、その類似度が一定を超えると不気味に感じるようになるという現象です(D)。
[第1章、第2章]
ウェブマイニングに関する理解を問う問題です。
ウェブマイニングは、ウェブデータを解析して知識を取り出す技術です(A)。
セマンティックウェブは、ウェブサイトの情報リソースに意味を付与することで、コンピュータによってより高度な意味処理を行うための技術のことです(B)。
オントロジーは、コンピュータによって処理することを目的として、ある分野で使われる用語や概念の関係を体系的に整理したものです(C)。
意味ネットワークは、概念を1つのノードとし、それらを意味関係で関連づけたネットワークです(D)。
[第2章]
半教師あり学習に関する知識を問う問題です。
半教師あり学習は、教師データが付与されたデータと付与されていないデータの両方を用いて行う学習です(B)。教師あり学習では、教師データを付与する作業(アノテーション)に多くの時間を要することがありますが、半教師あり学習ではそのコストを削減することができます。
教師データが付与されたデータのみを用いて行う学習は、教師あり学習です(A)。
教師データが付与されていないデータのみを用いて行う学習は、教師なし学習です(C)。
エージェントが環境と相互作用しながら試行錯誤を通じて行う学習は、強化学習です(D)。
試験対策 半教師あり学習の特徴や目的を理解しておきましょう。
[第3章]
ランダムフォレストに関する知識を問う問題です。
ランダムフォレストは、弱学習器に決定木を用い、バギングによってアンサンブル学習を行う手法です。各決定木の予測の平均を取ることで回帰タスクに、多数決を取ることで分類タスクに用いることができます。よって(ア)(ウ)(エ)は適切です(C)。
ランダムフォレストは、ブースティングを行う手法ではありません。よって(イ)は不適切です。
[第3章]
教師なし学習の具体的な応用例について問う問題です。
トピックモデルは、クラスタリングの手法のひとつであり、1つのデータを複数のクラスタに振り分けることができます。たとえば、ウェブニュースのデータにトピックモデルを適用し、それぞれのニュースが属するクラスタのタグを付与することができます(A)。
k-meansは、階層なしクラスタリングの代表的な手法です。たとえば、顧客データをその属性によっていくつかのグループに分割し、マーケティングなどに活かすことができます(B)。
協調フィルタリングは、レコメンデーションに用いられる手法です。たとえば、自社サイトで扱っているサービスを、ユーザーごとにパーソナライズして推薦することができます(D)。
特徴量が多く、モデルの学習が進まない場合には、主成分分析(PCA)などを用いて次元削減を行うことができます。ただし、ウォード法は階層ありクラスタリングの手法であり、次元削減には用いられません(C)。
試験対策 教師なし学習の各手法が、実際にどのような課題に応用できるかを整理しておきましょう。
[第3章]
Actor-Criticに関連する手法について問う問題です。
A3C(Asynchronous Advantage Actor-Critic)は、Actor-Criticの考え方を取り入れた手法です(C)。
UCB(Upper Confidence Bound)方策は、多腕バンディット問題を解く際などに用いられるアルゴリズムであり、Actor-Criticの考え方を取り入れたものではありません(A)。
REINFORCEは、方策勾配法の計算を行うアルゴリズムですが、Actor-Criticの考え方を取り入れたものではありません(B)。
SARSAは、行動価値関数(Q値)を最適化する手法であり、Actor-Criticの考え方を取り入れたものではありません(D)。
[第3章]
実際のビジネス課題において、適切な評価指標を選択できるかを問う問題です。
本問における課題例では、モデルが陽性(返信する)と予測した顧客にダイレクトメッセージを送付するため、それらの顧客に対する予測精度が重要となります。このような場合には、陽性と予測されたもののうち、実際に陽性であった割合を表す指標である適合率を用いるのが望ましいと考えられます(C)。
平均絶対誤差や平均二乗誤差は、回帰タスクに用いられる評価指標です(A、B)。
正解率では、モデルが陰性と判定したデータも評価対象となります。もし、ダイレクトメッセージに反応した顧客のデータが少ない場合、すべて陰性と判定するモデルでも、正解率が高くなってしまうことがあります。このような観点から、本問の例では適合率の方が評価指標としてより適していると考えられます(D)。
[第3章]
多層パーセプトロンに関する知識を問う問題です。
多層パーセプトロンは、入力層、1層以上の隠れ層、および出力層から構成されるニューラルネットワークです(A)。
単純パーセプトロンは、入力層と出力層のみをもち、隠れ層をもたないニューラルネットワークです(B)。
複雑パーセプトロン、複層パーセプトロンという用語は一般的ではありません(C、D)。
[第4章]
機械学習モデルにおけるパラメータの正則化を行う具体的な手法について問う問題です。
L0正則化は、0でない大きさをもつパラメータの総数を誤差関数に加える手法です(A)。
L1正則化は、パラメータの大きさの絶対値の総和を誤差関数に加える手法です(B)。
L2正則化は、パラメータの大きさの2乗和を誤差関数に加える手法です(C)。
L3正則化という手法は一般的ではありません(D)。
[第4章]
ニューラルネットワークの学習における訓練データの取り出し方について問う問題です。
バッチ学習は、すべての訓練データを用いてパラメータの更新を行う手法です(A)。
ミニバッチ学習は、訓練データから一部のデータをランダムに抽出し、パラメータの更新を繰り返す手法です(B)。
オンライン学習は、訓練データから一度に1つのデータのみを抽出し、パラメータの更新を繰り返す手法です。また、オンライン学習はミニバッチ学習に含まれます(C、D)。
[第4章]
畳み込みの具体的な計算方法について問う問題です。
畳み込みでは、入力画像にフィルタを適用した回数によって出力画像のサイズが決まります。本問の例では4×4の画像内で2×2のフィルタを動かしますが、畳み込みの適用ごとに動かす幅(ストライド)が2であるため、縦横で2回ずつ畳み込みを適用することになります。したがって、出力画像のサイズは2×2です(C)。
[第5章]
RNNに関する知識を問う問題です。
回帰結合層をもつニューラルネットワークを総称してリカレントニューラルネットワーク(RNN)と呼びます。回帰結合層とは、時間ステップに応じた再帰的な結合をもつ層です(A)。
畳み込みニューラルネットワーク(CNN)は、畳み込み層やプーリング層などによって構成されるニューラルネットワークです(B)。
オートエンコーダは、エンコーダとデコーダで構成されるニューラルネットワークです(C)。
意味ネットワークは、概念を1つのノードとし、それらを意味関係で関連づけたネットワークです(D)。
[第2章、第5章]
TransformerにおけるAttentionの計算に関連するキーワードを問う問題です。
Transformerでは、query、key、valueという3つの記号を用いてAttentionの計算を行います。よって(ア)(ウ)(エ)が適切な組み合わせです(C)。
itemという記号はAttentionの計算には用いられません。
[第5章]
SHRDLUに関する知識を問う問題です。
SHRDLUはプランニングの技術を活用したシステムであり、1970年頃にテリー・ウィノグラードによって開発されたものです。コンピュータ上の「積み木の世界」の中で、英語による指示によって物体を動かすことができます(B)。
マイシン(MYCIN)は、血液中のバクテリアの診断支援を行うエキスパートシステムです(A)。イライザ(ELIZA)は、あらかじめ用意されたパターンに応じて応答を行う会話プログラムであり、人口無能と呼ばれるもののひとつです(C)。DENDRALは、未知の有機化合物を特定するために開発されたエキスパートシステムです(D)。
[第2章]
MobileNetの構造に関する知識を問う問題です。
MobileNetは、Depthwise Separable Convolutionを導入することで、通常の畳み込みと比較して、非常に少ない計算量で出力を求めることができるネットワークです。Depthwise Separable Convolutionでは、通常の畳み込みを空間方向とチャンネル方向に分解し、それぞれ独立に畳み込み処理を行います。空間方向の畳み込みはDepthwise Convolution、チャンネル方向の畳み込みはPointwise Convolutionと呼ばれます(A、C)。
Depthwise Convolutionでは、入力データのチャンネルごとに畳み込みを行います(B)。なお、通常の畳み込みではすべてのチャンネルをまとめて畳み込みます。
Pointwise Convolutionでは、1×1のフィルタを用いてチャンネル方向に対して畳み込みを行います(D)。
[第6章]
物体検出に用いられる代表的なネットワークについて問う問題です。
物体検出は、画像内に存在する物体の位置を特定し、その物体のクラスを識別するタスクです。FPN、SSD、YOLOは、物体検出に用いられるネットワークです(A、B、C)。
VGG16は、画像分類を行うCNNであり、単体で物体検出には用いられません(D)。
[第6章]
文章をベクトル化する代表的な手法について問う問題です。
One-Hot Encodingは、ワンホットベクトル(単語のIDに対応する要素のみが1、他の要素が0となるようなベクトル)を用いて単語をベクトル化する手法です(A)。
BoWは、文章内の各単語の出現頻度をもとに、文章をベクトル化する手法です(B)。
TF-IDFは、ある文章内の単語の出現頻度に加え、データセット全体での単語の出現頻度を加味して文章をベクトル化する手法です(C)。
CBOWは、単語の分散表現を得る手法であるword2vecの学習に用いられるネットワークです。CBOWの学習には、NSPは用いられません(D)。なお、NSPによって事前学習を行うネットワークとして、BERT(Bidirectional Encoder Representations from Transformers)があげられます。
[第6章]
音声認識における音韻や音素に関する知識を問う問題です。
言語によらず、人間が発声する区別可能な音を音韻と呼びます(C)。一方、言語ごとに区別される音の最小単位を音素と呼びます(A)。
音子、音母という用語は、音声認識において一般的ではありません(B、D)。
[第6章]
ChatGPTに取り入れられているネットワークについて問う問題です。
ChatGPTにはGPT-n(GPT-3やGPT-4など)が用いられており、GPT(初代のGPT)〜GPT-4では、Transformerの構造が取り入れられています(B)。
ChatGPTには、WaveNet、拡散モデル、Flowベース生成モデルは取り入れられていません(A、C、D)。
[第6章]
Permutation Importanceに関する知識を問う問題です。
Permutation Importanceは、検証データ全体を用いて、個々の特徴量がどの程度重要であったかを求める手法です。ある特徴量を検証データ全体でシャッフルしてから予測を行い、シャッフル前の予測からどの程度精度が落ちるかを観測することで、その特徴量の重要度を求めます(A、B)。
Permutation Importanceの計算には、ニューラルネットワークの特徴マップは用いられません(C)。
なお、特徴マップの値を利用し、モデルが入力データのどの部分に注目したかを可視化する手法としては、CAMがあげられます。また、ある入力データにおいて予測値を計算するのに重要であった特徴量を求める手法としては、LIMEやSHAPがあげられます(D)。
[第6章]
AI開発におけるBPRに関する知識を問う問題です。
AIを業務プロセスに取り入れる際には、AIによって代替可能な業務を抽出し、業務プロセス自体を設計しなおすBPRが求められることがあります(B)。
IoTは、あらゆるものがインターネットに繋がり、情報のやりとりを行うという概念です(A)。
PoCは、本格的な開発を行う前にデータ分析や実験的なモデル構築などを行い、プロジェクトの実現可能性を見積もるプロセスです(C)。
CRISP-DMは、データ分析を活用したプロジェクトを推進するための標準的なフレームワークです(D)。
[第7章]
アノテーションに関する知識を問う問題です。
アノテーションは、教師データのついていない学習データに対し、教師データを付与する作業のことです。実務で機械学習を活用する際には、利用可能なデータに対して、解きたいタスクに関する教師データが付与されていないことが多くあります。そのような場合には、一般に人手によるアノテーションが必要になります(B)。選択肢A、C、Dの記述は不適切です。
[第7章]
基本的な統計量に関する知識を問う問題です。
分散は、データの散らばり度合いを表現する値です(A)。
標準偏差は、分散の平方根をとったものです(B)。
中央値は、データを大きさの順に並べたときに中央に位置する値です(C)。
期待値は、ある確率分布に従って何度も値を取り出すことを考えたときの、取り出された値の平均値を意味します(D)。
[第8章]
個人情報保護法における個人データについて問う問題です。
個人データは、特定の個人情報を容易に検索できるよう整備された「個人情報データベース等」を構成する個人情報です(D)。
選択肢Aは仮名加工情報に関する記述、Bは匿名加工情報に関する記述、Cは要配慮個人情報に関する記述です。
[第9章]
プライバシー・バイ・デザインに関する知識を問う問題です。
AI開発において学習時や予測時に個人情報などを扱う場合には、プライバシー上の問題に配慮する必要があります。プライバシー・バイ・デザインは、開発の段階からプライバシー侵害の予防を指向する設計思想です(A)。
プライバシー・フロム・デザイン、プライバシー・オブ・デザイン、プライバシー・アット・デザインという用語は一般的ではありません(B、C、D)。
[第10章]
シンボルグラウンディング問題について問う問題です。
シンボルグラウンディング問題は、コンピュータはある記号を実世界における意味と結び付けることは難しいという問題です(D)。
選択肢Aはフレーム問題、Bは強いAIの実現性、Cは次元の呪いに関する記述であり、いずれも不適切です。
[第1章]
ボードゲームにおいて次の手を探索する手法について問う問題です。
Mini-Max法は、自分の手番でスコア最大の手を選び、相手の手番でスコア最小の手が選ばれることを仮定して、次の手を網羅的に探索するアルゴリズムです(A)。
αβ法はMini-Max法を改善した手法であり、不必要な探索を途中で打ち切ることで探索を効率化したものです(B)。
モンテカルロ法は、仮想的なプレイヤーを通じてプレイアウトを繰り返し、盤面の評価を行う手法です(D)。
ウォード法は、階層ありクラスタリングの一手法です(C)。
[第2章]
代表的なエキスパートシステムについて問う問題です。
DENDRALは、知識ベースを用いて未知の有機化合物を特定するエキスパートシステムです(D)。
SHRDLUやSTRIPSは、第一次AIブームにおけるプランニングの技術を活用したシステムであり、エキスパートシステムではありません(A、B)。
イライザは、あらかじめ用意されたパターンに応じて応答を行う会話プログラムです。人工無能と呼ばれるもののひとつであり、エキスパートシステムではありません(C)。
[第2章]
線形回帰の具体的な応用例について問う問題です。
複数の特徴量を用いて線形回帰による分析を行うことを、重回帰分析と呼びます。重回帰分析では、各特徴量の重要性や統計的な優位性を分析します。線形回帰は回帰タスクを解く手法であるため、重回帰分析では回帰タスクを扱うことができます。
新店舗における売上の数値を予測するタスクは回帰タスクであり、重回帰分析を適用することができます(A)。
ある店舗の顧客の総合満足度は数値で表すことができます。したがって、それを予測するタスクは回帰タスクとして扱うことができ、重回帰分析を適用できます(B)。
ある住宅の価格を予測するタスクは回帰タスクであり、重回帰分析を適用することができます(C)。
ある住宅が属する市を予測するタスクは多クラス分類タスクであり、重回帰分析を適用することはできません(D)。
[第3章]
サポートベクターマシン(SVM)のアルゴリズムに関する知識を問う問題です。
SVMにおけるクラス分類では、データを最もよく分割する境界(直線的な)境界を求めます。線形分離不可能な(線形な境界で分割できない)タスクにおいては、データをあえて高次元に写像するカーネルトリックと呼ばれる数学的なテクニックを用いて計算を行います(B)。
ブートストラップサンプリングは、バギングを行う際などに、全体から抽出した一部のデータを用いて弱学習器を学習する方法です(A)。
ブルートフォースは、アルゴリズムによる探索を計算機による力任せで行うことを指す用語です(C)。
ソフトマックス(関数)は、多クラス分類タスクを解くニューラルネットワークの出力層に用いられる活性化関数です(D)。
具体的なビジネス課題の特徴や性質を見極めて、適切な教師あり学習の手法を選択できるようにしておきましょう。
[第3章]
レコメンデーションに用いられる手法について問う問題です。
ユーザーに商品やサービスなどを推薦すること、またはその技術をレコメンデーションと呼びます。代表的な手法として、協調フィルタリングがあげられます。協調フィルタリングは、複数のユーザーの過去の購買情報や評価情報を利用して、ユーザーの嗜好や関心にもとづいた予測や推薦を行う手法です(C)。
スパムフィルタは、メールの内容からそのメールが不適切かどうかを判定するものです(A)。
オートフィルタや調合フィルタリングという用語は、機械学習において一般的ではありません(B、D)。
[第3章]
REINFORCEについて問う問題です。
REINFORCEは、方策勾配法の計算を行う際に用いられる強化学習のアルゴリズムであり、AlphaGoなどに活用されています(A)。
SARSA(State-Action-Reward-State-Action)は、行動価値関数(Q値)を最適化する手法です(B)。
RLHF(Reinforcement Learning from Human Feedback)は、ChatGPTに活用されている手法であり、人間のユーザーが好む回答がどのようなものであるかをネットワークにフィードバックするものです(C)。
UCB方策は、多腕バンディット問題などを解く際に用いられるアルゴリズムです(D)。
[第3章]
過学習に関する知識を問う問題です。
過学習とは、訓練データに対しては予測精度が高い一方で、未知のデータに対する予測精度(汎化性能)が低い状態を指します。したがって、訓練データに対する予測精度と比較して、学習に用いていないテストデータに対する予測精度が低い場合、過学習が疑われます(A、B)。
なお、訓練データ、テストデータにおける予測精度が共に低い場合は、未学習が疑われます(D)。訓練データ、テストデータにおける予測精度が共に高い場合は、うまく学習が行われたということになります(C)。
[第3章]
ディープラーニングに用いられる演算処理装置について問う問題です。
GPUは、画像や映像などの並列処理に特化した演算処理装置であり、ディープラーニングにおける並列演算に用いられます(ア)。
TPUは、テンソル(行列やベクトル)の計算処理に最適化された演算処理装置であり、ディープラーニングにおける並列演算に用いられます(イ)。
QPUは、量子コンピュータにおける演算処理装置であり、ディープラーニングにおける並列演算を高速に行うものではありません(ウ)。
CPUはコンピュータ全般の作業を順に処理するための演算処理装置であり、ディープラーニングにおける並列演算を高速に行うものではありません(エ)。
したがって、(ア)と(イ)が適切な組み合わせです(A)。
[第4章、第10章]
ニューラルネットワークにおけるドロップアウトについて問う問題です。
ドロップアウトは、ニューラルネットワークの訓練時に、ランダムにニューロンを除外するテクニックです。ドロップアウトを用いることで、汎化性能が向上する場合があります(D)。
あるデータ集合からいくつかのデータを抽出することをサンプリングなどと呼びます(A)。
プーリングは、ニューラルネットワークのある層への入力データを領域ごとに平均したり最大値を取ったりする処理です(B)。
ホールドアウト(検証)は、データを訓練用とテスト用に分割し、訓練データでモデルを学習させ、テストデータでモデルの性能を評価する方法です(C)。
[第3章、第4章、第6章]
イテレーションやエポックに関する知識を問う問題です。
ミニバッチ学習において、抽出したデータを用いてパラメータの更新を行うという一回の操作をイテレーションと呼びます(ア)。また、複数回のイテレーションによって、すべての訓練データを用いてパラメータを更新したとき、その繰り返しの単位をエポックと呼びます(イ)。
したがって、(ア)にはイテレーション、(イ)にはエポックが入ります(B)。
[第4章]
Dilated Convolution(Atrous Convolution)に関する知識を問う問題です。
Dilated Convolutionは、特徴マップにフィルタを重ねる際に、フィルタの各要素に間隔を設ける畳み込みの手法です。これにより、同じフィルタの要素数でより広い範囲を畳み込むことが可能になります(A)。
選択肢Bは、MobileNetに用いられているDepthwise Separable Convolutionに関する記述です。Cは、ResNetに用いられているボトルネック構造に関する記述です。Dは、U-Netのデコーダなどに用いられている畳み込み処理に関する記述です。
[第6章]
LSTMの構造に関する知識を問う問題です。
LSTMは、入力ゲート、出力ゲート、忘却ゲートからなるゲート機構をもつRNNです(A、B、C)。
更新ゲートは、GRUのゲート機構を構成する要素です(D)。
[第5章]
Transformerにおける位置エンコーディングに関する知識を問う問題です。
TransformerにおけるAttentionの計算では、その構造上、単語の順番に関する情報を保持することができません。そこで、単語の位置に固有な情報を入力に加えることで、この問題を回避することができます。このような計算を位置エンコーディングと呼びます(B)。その他の選択肢は不適切です(A、C、D)。
[第5章]
GoogLeNetの構造に関する知識を問う問題です。
GoogLeNetは、Inceptionモジュールを積層した構造をもつCNNです。Inceptionモジュールとは、複数の異なるフィルタサイズをもつ畳み込み層を組み合わせた構造のことです(D)。
VGG、AlexNet、LeNetはInceptionモジュールを導入したCNNではありません(A、B、C)。
[第6章]
物体検出を行う代表的なネットワークの分類について問う問題です。
物体検出を行うネットワークには、画像中の物体の位置の特定を行った後、その物体のクラスを識別する2段階モデルと、物体位置の特定およびクラス識別を同時に行う1段階モデルがあります。代表的な2段階モデルとしてR-CNNがあげられます(D)。また、代表的な1段階モデルとしてYOLOやSSDがあげられます(A、B)。
U-Netは、1段階でセマンティックセグメンテーションを行うネットワークです(C)。
[第6章]
fastTextに関する知識を問う問題です。
fastTextは、2016年に当時のフェイスブック(現メタ)によって提案された自然言語処理のライブラリです。単語を部分文字列に分割することで、訓練データにない語彙に対しても埋め込みを計算できるのが特徴です(A)。
word2vecは、単語の分散表現を獲得する手法ですが、2013年にグーグルによって提案されたものです(B)。
CBOWは、word2vecの学習に用いられるネットワークです(C)。
TF-IDFは、ある文章内の単語の出現回数と、データセット全体での単語の出現頻度を考慮して文章をベクトル化する手法です(D)。
[第6章]
深層強化学習の代表的な手法について問う問題です。
深層強化学習は、強化学習とディープラーニングを組み合わせた学習手法です。DQNは、Q学習とディープラーニングを組み合わせた深層強化学習の手法です。また、DQNを取り入れた手法として、Ape-X、ノイジーネットワークなどがあげられます(B、C、D)。
REINFORCEは、方策勾配法の計算を行う際に用いられる強化学習のアルゴリズムであり、強化学習とディープラーニングを組み合わせた学習手法ではありません(A)。
[第3章、第6章]
敵対的生成ネットワーク(GAN)に関する知識を問う問題です。
GANは、ジェネレータ(生成器)とディスクリミネータ(識別器)から成るネットワークアーキテクチャであり、主に画像生成に用いられます(C、D)。
なお、エンコーダ、デコーダから成り、次元削減を行うネットワークアーキテクチャとして、オートエンコーダがあげられます(A)。また、エンコーダ、デコーダから成り、機械翻訳などを行うネットワークアーキテクチャとして、Seq2Seqがあげられます(B)。
[第5章、第6章]
MLOpsに関する知識を問う問題です。
MLOpsは、AIを用いたシステムを開発、運用する際の工程全体を統合することに関連する概念や方法論を指す用語です(B)。
MLOpsは、AI開発における透明性や契約に関連するガイドラインではありません(A、C)。
業務プロセスを再設計することをBPR(Business Process Re-engineering)と呼びます。MLOpsは、業務プロセスの再設計に関連する概念ではありません(D)。
[第7章]
疑似相関に関する知識を問う問題です。
疑似相関とは、確率変数Xと確率変数Yの間に何ら因果関係が想定されないにもかかわらず、確率変数Xと確率変数Yが相関している状態のことです(C)。
この疑似相関の背景には、確率変数X、確率変数Yのそれぞれと相関する確率変数Zが存在していると考えられます。このZの影響を取り除いたXとYの相関係数を求めることができ、この相関係数を偏相関係数と呼びます(A)。
偽相関、全相関という用語は一般的ではありません(B、D)。
[第8章]
個人識別符号に該当するものを判断できるかを問う問題です。
個人識別符号とは、それそのものから特定の個人を識別することができるものです。旅券番号や顔写真データ、指紋データといったものは、個人識別符号に該当します(B、C、D)。
郵便番号は、それそのものから特定の個人を識別できるものではなく、個人識別符号には該当しません(A)。
[第9章]
センシティブ情報に関する知識を問う問題です。
人種や国籍などのように、差別や偏見が生じないように注意すべき情報を、センシティブ情報と呼びます(D)。
仮名加工情報や匿名加工情報は個人情報保護法における概念であり、差別や偏見といった内容とは関連しません(A、B)。
イニシアティブ情報という用語は一般的ではありません(C)。
G検定では、センシティブ情報をセンシティブ属性と呼ぶ可能性が高いため、注意しましょう。
[第10章]
ボードゲームにおけるMini-Max法に関する知識を問う問題です。
Mini-Max法は、自分の手番でスコア最大の手を選び、相手の手番でスコア最小の手が選ばれることを仮定して、次の手を網羅的に探索するアルゴリズムです(A)。
その他の選択肢は不適切です(B、C、D)。
[第2章]
身体性に関する知識を問う問題です。
人工知能を実現するには、身体性が重要であるという考え方があります。人間は、文字などの記号で表された概念を、五感や経験などを通じて認識します。身体性に着目したアプローチでは、人工知能にも人間と同じように環境との相互作用を行う身体が必要であると考えます(A)。
感覚性、本能性、五感性という用語は一般的ではありません(B、C、D)。
人工知能を実現するための考え方のひとつとして、身体性に着目したアプローチを覚えておきましょう。
[第1章]
代表的なエキスパートシステムであるマイシンに関する知識を問う問題です。
マイシンは、血液中のバクテリアの診断支援を行うエキスパートシステムです(C)。
その他の選択肢は不適切です(A、B、D)。
なお、未知の有機化合物を特定するエキスパートシステムとしては、DENDRALがあげられます(D)。
[第2章]
線形回帰に関連するキーワードを問う問題です。
線形回帰は、特徴量と教師データの直線的な数値関係をモデル化する手法であり、回帰タスクに用いられます(B)。一方、ロジスティック回帰は、線形回帰を応用した手法であり、主に分類タスクを解くために用いられます(A)。
ラッソ回帰は、線形回帰にL1正則化を加えた手法です(C)。また、リッジ回帰は、線形回帰にL2正則化を加えた手法です(D)。
[第3章]
次元の呪いの概念や、次元削減の手法について問う問題です。
次元の呪いは、次元の増加に伴い計算量などが指数関数的に増える現象です(ア)。
また、主成分分析(PCA)は、主に次元削減に用いられる教師なし学習手法のひとつです(イ)。主成分分析などを用いることによって、機械学習における特徴量の次元を削減し、次元の呪いを回避することができます。
したがって、(ア)には次元の呪い、(イ)には主成分分析(PCA)が入ります(C)。
オッカムの剃刀は、「ある事柄を説明するためには、必要以上に多くを仮定するべきでない」というモデル構築の指針です。
重回帰分析は、複数の特徴量を用いて行う線形回帰による分析です。
[第3章]
レコメンデーションにおけるコールドスタート問題について問う問題です。
レコメンデーションでは、購買履歴などの情報をもとに推薦を行うため、購入された頻度が少ない商品が推薦の候補に上がらない場合があります。このような問題はコールドスタート問題と呼ばれます(D)。コールドスタート問題は、協調フィルタリングなどの手法で発生することがあります。
ワームエンド問題、コールドエンド問題、ワームスタート問題という用語は、レコメンデーションにおいて一般的ではありません(A、B、C)。
[第3章]
機械学習における汎化誤差の評価方法に関する知識を問う問題です。
汎化誤差は、未知のデータに対するモデルの予測誤差の期待値です。機械学習では、汎化誤差が小さくなるように学習を行うことが重要となります。
テストデータは、モデルの学習やハイパーパラメータの調整等に使わないデータであり、汎化誤差の推定に用いられます(A)。
検証データは、モデルのハイパーパラメータ等を最適化する場合などに用いられるデータであり、汎化誤差の推定に用いるべきではありません(B)。
訓練データは、モデルの学習に用いられるデータであり、汎化誤差の推定に用いるべきではありません(C)。
汎化誤差は、テストデータを用いて推定されることが望ましいです(D)。
[第3章]
過学習を防ぐ具体的な手段について問う問題です。
モデルの複雑さを制限することで、過学習を抑制する効果があります。たとえば、モデルのパラメータに正則化を適用することで、モデルの複雑さを制限することができます。また、線形回帰などの手法を用い、より単純な構造をもつモデルを採用することも効果的です(A、D)。
検証データを用いて学習中の予測精度をモニタリングし、検証データにおける予測精度が改善しなくなった時点で学習を打ち切ることで、過学習を抑制することができます。これを早期終了と呼びます(B)。
過学習を抑制するためには、訓練データの量を増やすことが重要です(C)。
[第3章]
代表的な活性化関数の性質に関する知識を問う問題です。
シグモイド関数は、(0, 1) の値をとる活性化関数です(A)。
tanh関数は、(-1, 1) の値をとる活性化関数です(B)。
ReLUは、[0, ∞) の値をとる活性化関数です(C)。
Leaky ReLUは、0未満の入力に対してもわずかな傾きをもつよう、ReLUを改良した活性化関数です。したがって、Leaky ReLUは (-∞, ∞) の値をとります(D)。
[第4章]
勾配消失問題や勾配爆発問題に関する知識を問う問題です。
勾配消失問題は、出力層における勾配が入力層まで伝わらず、入力層付近のパラメータの更新が滞ってしまう現象です(A)。また、勾配消失問題が発生した場合には学習が進みづらくなるため、訓練誤差、汎化誤差が共に大きくなる傾向があります。したがって、勾配消失問題の発生時には過学習が問題になるわけではありません(C)。
一方、勾配爆発問題は、学習の途中で勾配が大きくなりすぎることによって、安定的に学習を進められなくなってしまう現象です(B、D)。
[第4章]
ノーフリーランチ定理に関する知識を問う問題です。
ノーフリーランチ定理は、あらゆる問題で優れた性能をもつアルゴリズムは理論上存在しないということを示す定理です。たとえば、ある機械学習モデルが特定の問題に対して優れた性能を示したとしても、別の問題で同様に優れた性能を発揮できるとは限りません(C)。
オッカムの定理、マハラノビスの定理、フィルタバブル定理という定理は一般的ではありません(A、B、D)。
[第4章]
バッチ正規化に関する知識を問う問題です。
バッチ正規化は、ニューラルネットワークのある層への入力に対して正規化を行う手法のひとつです。バッチ正規化では、ミニバッチ内のすべてのデータを用いて、チャンネルごとに正規化を行います(B)。
選択肢Aのような正規化の手法は一般的ではありません。Cはレイヤー正規化に関する記述です。Dはインスタンス正規化に関する記述です。
[第5章]
LSTMに採用されているCECに関する知識を問う問題です。
CECは、LSTMに採用されている機構であり、長期的な情報を蓄えておくためのものです(B)。
BPTTは、RNNにおいて、時間軸に沿って過去に遡りながら誤差を伝播させることを指す用語です(A)。
GRUは、LSTMのゲート機構を簡略化したネットワークです(C)。
BERTは、Transformerのエンコーダの構造をもとにした自然言語処理のためのネットワークです(D)。
[第5章、第6章]
オートエンコーダに関する知識を問う問題です。
オートエンコーダは、エンコーダとデコーダで構成されるニューラルネットワークのアーキテクチャです。オートエンコーダでは、教師データに入力データと同じものを用い、隠れ層の次元を入力層の次元よりも小さくすることで、次元削減などを行うことができます(A)。
オートデコーダ、エンコードネットワーク、デコードネットワークという用語は一般的ではありません(B、C、D)。
[第5章]
代表的なセグメンテーションタスクの概要について問う問題です。
セマンティックセグメンテーションは、画像中のすべての画素に対して、そのクラスを識別するタスクです。同じクラスに属する物体は区別しないため、物体ごとにIDを付与することはありません(A)。
パノプティックセグメンテーションは、画像中のすべての画素に対して、そのクラスを識別し、物体ごとにIDを付与するタスクです(B)。
インスタンスセグメンテーションは、画像中のすべての物体に対して、そのクラスを識別し、物体ごとにIDを付与するタスクです。画像中の背景は識別しないため、すべての画素に対してクラスの識別を行うわけではありません(D)。
クラスセグメンテーションというタスクは一般的ではありません(C)。
[第6章]
word2vecの学習に用いられるネットワークについて問う問題です。
word2vecでは、単語の分散表現を獲得するネットワークとして、skip-gramとCBOWが提案されています。skip-gramは、文章中のある単語に対して、その周辺の単語を予測するネットワークです(A)。また、CBOWは、文章中の周囲の単語から対象の単語を予測するネットワークです(B)。
選択肢C、Dは、それぞれBERTの事前学習に用いられるNSP(Next Sentence Prediction)、MLM(Masked Language Model)に関する記述です。
[第6章]
深層強化学習の一手法であるRainbowに関する知識を問う問題です。
Rainbowは、ダブルDQN、ノイジーネットワーク、デュエリングネットワークなど、7つの手法を組み合わせたものです(ア)。
残差強化学習は、ロボット制御などにおいて、既存の制御手法と強化学習を組み合わせた学習手法です。Rainbowは残差強化学習を行う手法ではありません(イ)。
Atari2600は、強化学習の性能評価のベンチマークとして広く用いられているゲームです。Rainbowは、Atari2600をプレイすることができます(ウ)。
複数のエージェントを用意し、それらの相互作用を加味しながら学習を行うことをマルチエージェント強化学習と呼びます。Rainbowは、マルチエージェント強化学習を行う手法ではありません(エ)。
したがって、(ア)と(ウ)が適切な組み合わせです(C)。
[第6章]
敵対的生成ネットワーク(GAN)の派生ネットワークに関する知識を問う問題です。
DCGANは、GANで用いられるネットワークにCNNを用いたものです(A)。
Pix2PixやCycleGANは、GANのネットワーク構造を活用し、画像の変換を行う生成ネットワークです(B、D)。
sim2realは、強化学習において、コンピュータ上のシミュレータで学習したモデルを実世界へ適用することを指す用語です(C)。
[第6章]
CRISP-MLに関する知識を問う問題です。
CRISP-DMは、AIに限らず、データ分析を活用したプロジェクトを推進するための標準的なフレームワークです。また、CRISP-MLは、AIを活用する場合に特有な運用時のモニタリングなどを加味し、CRISP-DMを拡張したフレームワークです(D)。
CRISP-IT、CRISP-WM、CRISP-AIというフレームワークは、一般的ではありません(A、B、C)。
[第7章]
連続型分布の基礎的な知識を問う問題です。
確率密度関数は、連続的な確率変数の確率分布を表現する関数です。確率密度関数を用いることで、確率変数が一定の範囲内の値をとる確率を求めることができます(A)。
情報量関数、正規分布関数という用語は一般的ではありません(B、C)。
累積分布関数は、確率変数がある値x以下の値をとる確率を表す関数です(D)。
[第8章]
著作権法とデータ活用の関連について問う問題です。
著作権法第三十条の四では、情報解析の用に供する場合には、著作権者の許可なく著作物を利用可能であると定めています(C)。
著作権法第三十条の四では、情報解析の用に供する場合の著作物の利用について、営利、非営利といった目的に制限は設けていません(A、B、D)。
[第9章]
代理変数に関する知識を問う問題です。
代理変数は、センシティブ情報との相関が高いことなどにより、センシティブ情報を代替しうるデータです(A、B)。
代理変数は、特定の個人を識別できるかどうかに関連するものではありません(C、D)。
試験対策 G検定では、センシティブ情報をセンシティブ属性と呼ぶ可能性が高いため、注意しましょう。
[第10章]
第一次AIブームにおいて解くことのできた問題について問う問題です。
第一次AIブームでは、迷路や簡単なゲームを解くコンピュータが開発され、当時のコンピュータが解くことができた問題はトイ・プロブレムと呼ばれました(C)。
フレーム問題は、ある問題を解く際に、人工知能に対処させるべき事柄を決めることは難しいという問題です(A)。
シンボルグラウンディング問題は、コンピュータはある記号を実世界における意味と結び付けることは難しいという問題です(B)。
中国語の部屋[解答138を参照]は、強いAIが実現不可能であるという主張を示すために提案された思考実験です(D)。
[第1章]
第二次AIブームに関連するキーワードを問う問題です。
エキスパートシステムは、ある専門知識に関するデータ(知識ベース)を用いて推論を行うプログラムです(ア)。
知識ベースを構築するのは、少なくとも当時の技術では容易ではありませんでした。人間の専門家の知識は多くの場合、経験的、暗黙的なものであり、これらを本人から引き出すためには、うまくヒアリングを行う必要があります。そこで、知識ベースを構築するために知的なインタビューシステムを開発する研究が行われました(イ)。
したがって、(ア)にはエキスパートシステム、(イ)にはインタビューシステムが入ります(D)。
エクセレントシステム、ナレッジシステムという用語は一般的ではありません。
試験対策 エキスパートシステム、インタビューシステムといった第二次AIブームに関連するキーワードを抑えておきましょう。
[第2章]
ビッグデータに関する知識を問う問題です。
今日ではインターネットが広く普及し、大量のデータが日々生成され、蓄積されています。インターネットの成長とともに蓄積された大量のデータはビッグデータと呼ばれ、機械学習を始めとした研究領域で活用されています(C)。
表形式で表せるようなデータを構造化データ、画像や文章といった構造化データでないデータを非構造化データなどと呼びます。ただし、これらは蓄積された大量のデータを総称する用語ではありません(A、B)。
ラージデータという用語は一般的ではありません(D)。
[第2章]
ベクトル自己回帰モデル(VAR)について問う問題です。
自己回帰モデル(AR)やVARは、時系列データに関する回帰タスクを扱う手法です。ARは単一の時系列データを扱うことができ、VARは複数の時系列データを扱うことができます(D)。
VAE(変分オートエンコーダ)は、画像生成などを行う生成ネットワークです(A)。
VGGは、画像認識の競技会であるILSVRCで2014年に高い評価を受けた畳み込みニューラルネットワークです(B)。
OCRは、手書き文字や印刷された文字を自動で読み取り、テキストデータに変換する技術です(C)。
[第2章、第3章、第5章、第6章]
トピックモデルに関する知識を問う問題です。
トピックモデルは、クラスタリングを行う教師なし学習の手法です(C、D)。
k-meansでは1つのデータを単一のクラスタに割り当てますが、トピックモデルでは1つのデータを複数のクラスタに割り当てることができます(A、B)。
[第6章]
コンテンツベースフィルタリングに関する知識を問う問題です。
コンテンツベースフィルタリングは、レコメンデーションに用いられる手法のひとつです(B)。コンテンツベースフィルタリングでは、商品情報に関する特徴量を利用し、類似する商品を推薦します。その他の選択肢の記述は不適切です。
[第3章]
分類タスクに用いられる代表的な評価指標について問う問題です。
AUCは、ROC曲線のグラフの下部の面積で表される評価指標であり、分類タスクに用いられます(A)。
再現率やF値は、混同行列から算出される評価指標であり、分類タスクに用いられます(C、D)。
RMSEは、予測値と正解値の誤差の二乗和を平均し、平方根を取ったものであり、回帰タスクに用いられる代表的な評価指標です(B)。
[第3章]
過学習や未学習が発生する原因について問う問題です。
訓練データの量に対してモデルのパラメータ数が少ない場合、モデルが教師データを十分に説明できず、未学習が発生しやすくなります(A)。
訓練データの量に対して特徴量の数が多すぎる場合には、モデルが訓練データに過度に適合し、過学習が発生しやすくなります(B)。
機械学習では、学習データをできる限り多く収集することが重要となります。訓練データの量が少ない場合、過学習が発生しやすくなります(C)。
学習時に正則化を行うと、過学習が発生しにくくなります(D)。
[第3章]
シグモイド関数と勾配消失問題の関係について問う問題です。
誤差逆伝播法では、出力層で計算した誤差を、微分の計算によって出力層から入力層にかけて伝播させます。このとき、入力層付近まで誤差がうまく伝わらないことがあります。これを勾配消失問題と呼びます。シグモイド関数は微分の最大値が小さいことから、勾配消失問題が発生しやすいことで知られています(A)。
勾配爆発問題は、学習の途中で勾配が大きくなりすぎることによって、安定的に学習を進められなくなってしまう現象です。活性化関数にシグモイド関数を選択しても、勾配爆発問題が発生しやすくなることはありません(B)。
信用割当問題は、各ニューロンが出力を改善するために、予測結果からどのようにフィードバックを受ければよいかという問題です。活性化関数にシグモイド関数を選択することと、信用割当問題とは無関係です(C)。
信用消失問題という用語は一般的ではありません(D)。
[第4章]
信用割当問題の概要や、誤差逆伝播法との関わりについて問う問題です。
誤差逆伝播法は、出力層から勾配(誤差)を順に伝えることで、各ニューロンに予測結果をフィードバックします。このことは、ニューラルネットワークにおける信用割当問題を、誤差逆伝播法が解決していると考えることができます(B)。
方策勾配法は、強化学習における方策を学習する手法です(A)。
k-meansは、階層なしクラスタリングの一手法です(C)。
モンテカルロ法は、ボードゲームにおいて仮想的なプレイヤーを通じてプレイアウトを繰り返し、盤面の評価を行う手法です(D)。
[第4章]
ニューラルネットワークにおける代表的な正規化の手法について問う問題です。
グループ正規化は、チャンネルをいくつかのグループに分割し、グループ内のチャンネルを用いてデータごとに正規化を行う手法です(A)。
インスタンス正規化は、チャンネルごと、データごとに正規化を行う手法です(C)。
レイヤー正規化は、ある層のすべてのチャンネルを用いて、ミニバッチ内のデータごとに正規化を行う手法です(D)。
エポック正規化という手法は一般的ではありません(B)。
[第5章]
GRUの構造に関する知識を問う問題です。
GRUは、LSTMのゲート機構を簡略化したネットワークです。GRUのゲート機構は、リセットゲート、更新ゲートによって構成されます(C、D)。
GRUは、Attentionや畳み込み層を導入したネットワークではありません(A、B)。
[第5章]
積層オートエンコーダに関する知識を問う問題です。
積層オートエンコーダは、ニューラルネットワークの事前学習に用いられる手法です。積層オートエンコーダでは、入力層から逐次的に層を重ね、それぞれの層を順にオートエンコーダの仕組みを用いて学習することで、深いネットワークを構築します(C)。
通常のオートエンコーダは次元削減に用いられますが、積層オートエンコーダは主に事前学習を行うための手法です(A)。
積層オートエンコーダは、階層ありクラスタリングやネットワークの構造探索には用いられません(B、D)。なお、選択肢DはNASに関する記述です。
[第5章]
WideResNetに関する知識を問う問題です。
WideResNetは、ResNetを改良したCNNです。ResNetの層を減らし、代わりに畳み込みのチャンネル数を増やすことで高速かつ高精度なネットワークを実現しました(A、C)。
WideResNetは、ResNetにおける畳み込みのフィルタの縦横サイズや、プーリングの窓を大きくしたネットワークではありません(B、D)。
[第6章]
インスタンスセグメンテーションに用いられるネットワークについて問う問題です。
Mask R-CNNは、物体検出タスクとセグメンテーションタスクを同時に解くことで、インスタンスセグメンテーションを行うネットワークです(D)。
R-CNN、Fast R-CNN、Faster R-CNNは物体検出に用いられるネットワークであり、インスタンスセグメンテーションには用いられません(A、B、C)。
[第6章]
自然言語処理における具体的なタスクについて問う問題です。
Seq2Seq (Sequence-to-Sequence) は、エンコーダ、デコーダと呼ばれる2つのRNNで構成されるネットワークであり、文書要約や機械翻訳のような、入力と出力の長さが異なりうるタスクを扱うことができます。したがって、(ア)にはSeq2Seq、(イ)には異なりうるタスク、(ウ)には文書要約が入ります(A)。
LSTMは、ゲート機構をもつRNNであり、エンコーダ、デコーダからなる構造はもっていません。
情報検索は、与えられたクエリ(単語など)をもとに、類似するデータを抽出するタスクです。
試験対策 自然言語処理における代表的なタスクを押さえておきましょう。機械翻訳や文書要約、情報検索のほかにも、質問応答や感情分析などのタスクがあります。
[第6章]
マルチモーダルタスクを解くネットワークについて問う問題です。
Flamingoはディープマインドによって開発されたネットワークであり、Visual Question AnsweringやOptical Character Recognition、Image Captioningなどを行うことができます(A、B、C)。
Visual Question Answering (VQA) は、画像と画像に関する質問文を入力として受け取り、それらの内容をもとに回答を生成するタスクです。
Optical Character Recognition (OCR) は、入力された画像に写っている文字を認識し、テキストとして出力するタスクです。
Image Captioningは、入力された画像に対し、その画像を説明する文章を生成するタスクです。
Text-to-Imageは、入力された文章をもとに、その内容を反映した画像を生成するタスクです。Flamingoは、画像を生成することはできません(D)。
[第6章]
代表的な確率分布に関する知識を問う問題です。
2つのいずれかの事象(成功か失敗)のみが一定の確率で起こる試行をベルヌーイ試行と呼びます。1回のベルヌーイ試行の結果に対応する確率変数Xが従う確率分布をベルヌーイ分布と呼びます(A)。
ポアソン分布は、ある確率で起こる事象が一定の時間内に起きる回数Xを考えたとき、Xが従う確率分布です(C)。
正規分布は、期待値μと分散σをもつ連続的な確率変数Xが従う釣り鐘型の確率分布です(D)。
二項分布は、ベルヌーイ試行を複数回繰り返したとき、その時点での成功回数が従う確率分布です(B)。
参考:すべての事象が等確率で起こるような離散的な確率変数が従う確率分布を離散一様分布と呼びます。
[第8章]
AI開発における成果物と知的財産権との関連を問う問題です。
特許法では、プログラム(電子計算機に対する指令であって、発明の結果を得ることができるように組み合わされたもの)やそれに準ずるものを発明の対象として認めており、学習用プログラムはその新規性や進歩性によって発明として認められる場合があります。一方、学習用データセットに関しては、情報の単なる提示に該当するとされ、一般に発明とは認められません(A、B)。学習用データセットは、情報の選択または体系的な構成によって創作性を有する場合は著作物として認められます。また、学習用のプログラムについても、プログラムそのものが著作物として認められる場合があります(C、D)。
[第9章]
アルゴリズムバイアスに関する知識を問う問題です。
機械学習モデルなどを含むアルゴリズムが、入力データにおける特定の属性に対して偏った結果を出力してしまうことを、アルゴリズムバイアスと呼びます(B)。サンプリングバイアスは、データの収集方法が適切でないことなどによって生じた、データの偏りを指す用語です(D)。プライバシーバイアス、センシティブバイアスという用語は一般的ではありません(A、C)。
[第10章]
シンギュラリティに関する知識を問う問題です。
人工知能が自身よりも賢い人工知能を作ることができるようになった時点で、さらに高い知能をもつ存在を作り続けるようになり、人間の想像力が及ばない超越的な知性が誕生するという仮説があります。これをシンギュラリティと呼びます(D)。
知識獲得のボトルネックは、コンピュータが知識を獲得することの難しさを表した用語です(A)。
オープンイノベーションは、技術やアイデアといった自組織の資源を外部組織と積極的に共有し、イノベーションをより効率的に生み出すためのアプローチです(B)。
強いAIは、人間と同様に心や自意識をもつAIを指す用語です(C)。
[第1章、第7章]
エキスパートシステムに関する理解を問う問題です。
エキスパートシステムは、ある専門分野の知識(知識ベース)を用いて推論を行う構造をもち、その分野の専門家のように振る舞うことのできるプログラムです(A、C)。代表的なエキスパートシステムとして、血液中のバクテリアの診断支援を行うマイシンがあげられます(D)。
エキスパートシステムは、第二次AIブームにおける主な研究対象として知られています(B)。
[第2章]
機械学習の概要や、代表的な応用例について問う問題です。
機械学習は、第三次AIブームにおける主要な研究対象のひとつです(ア)。機械学習を用いることによって、大量のデータからパターンを自動的に抽出し、予測や分類を行うことができます。
機械学習はたとえば、スパムフィルタやレコメンデーションエンジンといったシステムに応用可能です。スパムフィルタは、メールの内容からそのメールが不適切かどうかを判定するものです(イ)。また、レコメンデーションエンジンは、ユーザーの過去の購買履歴などから、そのユーザーが将来購入する確率の高い商品などを予測し、推薦するシステムです(ウ)。どちらの例でも、過去に蓄積した大量のデータを、機械学習によって処理することができます。
したがって、(ア)には三、(イ)にはスパム、(ウ)にはレコメンデーションが入ります(D)。
試験対策 機械学習がどういったシステムに応用できるかを理解し、その代表例を押さえておきましょう。
[第2章]
特徴量に対する具体的な前処理の手法について問う問題です。
各特徴量の取り得る値の範囲を揃える前処理として、標準化や正規化があげられます。標準化は、特徴量の平均が0、標準偏差が1となるように変換する手法です(A、B、D)。一方、正規化は、特徴量を最小値0、最大値1の範囲に変換する手法です(C)。
備考 近年では、正規化は標準化を含む概念として扱われることが増えていますが、G検定では本問における定義が用いられる可能性が高いため、注意しましょう。また、本問における正規化は、サンプル正規化と呼ばれる可能性もあります。
[第3章]
強化学習における基本的な概念のうち、割引率について問う問題です。
強化学習では、累積報酬を求める際に、割引率と呼ばれるハイパーパラメータを導入することがあります。割引率を時刻に応じて乗じることで、将来得られる報酬よりも、すぐに得られる報酬の方がより価値が高いことを行動評価に組み入れることができます(C)。
行動率、状態率、環境率という用語は強化学習において一般的ではありません(A、B、D)。
[第3章]
ROC曲線とAUCに関する知識を問う問題です。
ROC曲線は、モデルの予測値を陰性、陽性に分ける閾値を0~1に変化させたとき、モデルの予測性能がどのように変化するかを描いた曲線です。この曲線の外部の面積はAUCと呼ばれ、分類タスクにおける評価指標として用いられます(B)。
AIC(赤池情報量基準)は、モデルの複雑さと予測性能のトレードオフを考慮した評価指標です(A)。
MAEやMSEは、回帰タスクに用いられる評価指標です(C、D)。
[第3章]
活性化関数のひとつであるReLUに関する知識を問う問題です。
ReLUは、入力が負のときに0、正のときに恒等写像となる関数です(C、D)。よって、入力が0以上の領域ではさまざまな値をとります(A、B)。
[第4章]
確率的勾配降下法(SGD)の概要について問う問題です。
確率的勾配降下法は、訓練データからランダムに抽出した一部のデータを用いて勾配を推定し、パラメータの更新を繰り返す手法です(C)。
ニューラルネットワークにおける学習時には、一般的にすべてのパラメータを一度に更新します。また、ハイパーパラメータや誤差関数は、通常は学習中には固定されます(A、B、D)。
[第4章]
プーリングに関する知識を問う問題です。
プーリングは、窓を移動させながら、その窓内の平均値や最大値を出力することで、ある層への入力データの特徴を取り出す処理です。窓内で平均値を出力する場合は平均値プーリング、最大値を出力する場合は最大値プーリングと呼びます(D)。
畳み込みは、フィルタをある層への入力データに対して順に重ね合わせ、対応する入力データの値とフィルタの値をかけ合わせて総和を取る処理です(A)。
ドロップアウトは、ニューラルネットワークの訓練時に、ランダムにニューロンを除外するテクニックです(B)。
パディングは、画像データなどの周囲を0などの定数で補完するテクニックです(C)。
[第4章、第5章]
さまざまなRNNに関する基礎的な知識を問う問題です。
双方向RNNは、過去から未来の方向だけでなく、未来から過去の方向についても考慮して出力を行うことができるRNNです(A)。
Seq2Seqは、エンコーダ、デコーダと呼ばれる2つのRNNで構成されるネットワークであり、入力と出力の長さが異なるタスクを扱うことができます(B)。
エルマンネットワークは、シンプルな構造をもつ初期のRNNであり、1990年に発表されたものです(D)。
ゲート機構とCEC (Constant Error Carousel) によって構成されるRNNは、LSTMです(C)。
[第5章]
変分オートエンコーダ(VAE)に関する知識を問う問題です。
VAEは、オートエンコーダを活用した生成ネットワークの一種であり、主に画像生成に用いられます。エンコーダが入力データを確率分布上で表現し、デコーダがその確率分布からサンプリングした潜在変数を元に入力データを復元するように学習を行います(D)。その他の選択肢は不適切です(A、B、C)。
[第5章]
NASNetに関する知識を問う問題です。
ニューラルネットワークの構造を探索すること、およびそのための技術をNAS(Neural Architecture Search)と呼びます。NASの技術を用いて構造探索を行うことで得られたネットワークとして、2017年にNASNetが提案されました(B)。
ResNetは、2015年に提案されたネットワークです(A)。
GoogLeNetは、2014年に提案されたネットワークです(C)。
DenseNetは、2016年に提案されたネットワークです(D)。
[第6章]
各セグメンテーションタスクに用いられるネットワークについて問う問題です。
PSPNet、U-Net、SegNetは、セマンティックセグメンテーションに用いられるネットワークです(A、B、D)。
Mask R-CNNは、インスタンスセグメンテーションに用いられるネットワークです(C)。
[第6章]
RLHFやChatGPTに関する知識を問う問題です。
ChatGPTは、オープンAIが開発した対話型の文章生成AIです。ChatGPTの学習には、RLHFという強化学習を用いた手法が使われています。RLHFは、人間のユーザーが好む回答がどのようなものであるかをネットワークにフィードバックすることで、望ましい回答を生成できるようにする手法です(A)。
BERTは、自然言語処理に用いられる事前学習モデルであり、そのまま文章生成に用いることはできません。また、事前学習においてRLHFを用いた学習は通常行われません(B)。
NeRFは、与えられた画像に対し、ほかの視点から見た画像を生成することができる画像生成の技術です(C)。
CycleGANは、画像変換を行うネットワークのひとつです(D)。
[第6章]
強化学習におけるさまざまな手法に関する理解を問う問題です。
オフライン強化学習は、環境との相互作用を必要とせず、固定のデータセットをエージェントに与えて学習を行う手法です(A)。
残差強化学習は、ロボット制御などにおける、既存の制御手法と強化学習を組み合わせた手法です(B)。
マルチエージェント強化学習は、複数のエージェントを用いて、それらの相互作用を加味しながら学習を行う手法です(C)。
選択肢Dは、方策勾配法に関連する記述であり、不適切です。なお、強化学習において、入力データから状態を表現する特徴量を抽出する過程そのものが学習によって得られるとき、これを状態表現学習と呼びます。
[第6章]
NeRFに関する知識を問う問題です。
NeRFは、ニューラルネットワークを活用した画像生成技術であり、ある物体が写った画像に対し、ほかの視点から見た物体の画像を生成することができます(C)。選択肢A、B、Dは不適切です。
[第6章]
インターネットを通じたAIシステムの提供に関連するキーワードを問う問題です。
クラウドは、インターネットを通じて、コンピュータの計算リソースなどを必要な量、必要な時間だけ利用できるコンピュータ環境です(D)。
Web APIは、インターネットを介してシステム間でデータの受け渡しを行う仕組みです(A)。
IoTは、あらゆるものがインターネットに繋がり、情報のやりとりを行うという概念です(B)。
エッジは、AIを利用する現場に配置する機器などを指す用語です(C)。
[第7章]
データリーケージを考慮した特徴量の作成方法について問う問題です。
データリーケージは、実際に予測を行うときには利用できないデータが訓練データに混入する現象です。データリーケージが発生すると、モデルの評価時に得られた性能が運用時に再現できない場合があります。
本問の設定では、ある日付の売上を予測するときに利用できる来店者数の実績データは、その1日前までのデータです。よって、ある売上データに対し、その日付の前日までの来店者数データを用いた場合は、データリーケージは発生しません(A)。一方、ある売上データに対し、その日付以降の来店者数データを用いた場合は、データリーケージが発生します(B、C、D)。
[第7章]
特許法における職務発明に関する知識を問う問題です。
職務発明とは、企業などの使用者等における従業者等の職務に属する発明のことです。職務発明における発明者である従業員の権利を適切に保護するため、特許法では職務発明制度と呼ばれる特則が設けられています(B)。
特許法において、企業発明、従業発明、従属発明という用語は定義されていません(A、C、D)。
[第9章]
AIを標的とした攻撃手法に関する知識を問う問題です。
データ汚染は、学習データに不適切なデータを混入させ、モデルに誤った学習をさせる攻撃です(ア)。また、学習済みモデルの予測を意図的に誤らせる目的で作られた入力データをAdversarial Exampleと呼び、それらを利用した攻撃を総称してAdversarial Attackと呼びます(イ)。
したがって、(ア)にはデータ汚染が、(イ)にはAdversarialが入ります(C)。
モデル汚染は、攻撃者が細工をした事前学習済みモデルを配布して利用させることで、モデルの出力を操作したり、悪意のあるプログラムを実行させたりする攻撃です。また、AdaBoundは、勾配降下法の一手法です。
[第10章]
強いAIに関連する中国語の部屋について問う問題です。
ジョン・サールは、強いAIは実現不可能であるという自らの立場を示すために、中国語の部屋と呼ばれる思考実験を提案しました(A)。ある部屋に、英語しかわからない人が、中国語の質問に完璧に答えられるマニュアルを持って閉じ込められているとします。この人は中国語を理解していませんが、このマニュアルを使うことで、部屋の外の人と文字による中国語でのコミュニケーションを取ることができます。したがって、部屋の外の人は、部屋の中の人が中国語を理解していると誤って判断するでしょう。この思考実験は、チューリングテストに置き換えて考えることができます。すなわち、たとえチューリングテストに合格しても、本当にそのコンピュータに知能があるかはわからないということです。
ハノイの塔は、大きさの違う円盤をあるポールから別のポールに大小関係を保ったまま移動させるパズルです(B)。
チューリングテストは、コンピュータが人工知能かどうかを判定するためのテストです(C)。
トイ・プロブレムは、第一次AIブームにおいて解くことのできた迷路や簡単なゲームなどの問題を指す用語です(D)。
試験対策 中国語の部屋が何を主張する思考実験であるかを理解しておきましょう。
[第1章]
意味ネットワークにおける関係に関する理解を問う問題です。
part-ofの関係は、「一部である」という関係、すなわち属性を表します。「彼は水泳部の一員である」、「手は人間の一部である」といった関係はpart-ofの関係です(A、B)。
is-aの関係は、「~である」という継承関係を表します。「動物は生物である」という関係はis-aの関係です(D)。
「足が4本ある」という関係は、「足」は「4本」という概念ではないため、is-aの関係ではありません(C)。
[第2章]
初期の画像認識ネットワークであるネオコグニトロンについて問う問題です。
ネオコグニトロンは、初期の画像認識ネットワークのひとつであり、畳み込みニューラルネットワークよりも前に考案されたものです。ネオコグニトロンは、人間の視覚野の神経細胞を模倣した多層構造をもち、画像のパターンを認識することができます(A)。
意味ネットワークは、概念を1つのノードとし、それらを意味関係で関連づけたネットワークです(B)。
ワトソンは、IBMが開発したQuestion-Answering (質問応答) の技術をもつ人工知能です(C)。
東ロボくんは、東京大学に合格できる能力の獲得を目指して開発された人工知能です(D)。
試験対策 ネオコグニトロンと畳み込みニューラルネットワークは似た構造をもつということを覚えておきましょう。
[第2章]
アンサンブル学習を行う方法を問う問題です。
アンサンブル学習を行う代表的な方法として、バギングとブースティングがあげられます。バギングは、複数の弱学習器の出力から多数決や平均によって最終的な出力を決定する方法です。一方、ブースティングは、1つずつ直列に弱学習器を繋いでいき、前の弱学習器における誤差を補うように学習を行う方法です。よって(ア)(ウ)は適切です(C)。
パディングは、画像データなどの周囲を0などの定数で補完するテクニックです(イ)。プーリングは、ニューラルネットワークのある層への入力データを領域ごとに平均したり最大値を取ったりする処理です(エ)。
[第3章、第5章]
ウォード法に関する知識を問う問題です。
ウォード法は、階層ありクラスタリングの一手法です。ウォード法では、データ間の距離を階層的に表した樹形図(デンドログラム)を生成することができます。デンドログラムを読み解くことによって、クラスタ同士がどのような関係をもっているかを解釈することができます(D)。
決定木は、特徴量の値に応じて分岐路を作っていき、最終的な予測値を決定する教師あり学習のアルゴリズムです(A)。
探索木は、迷路などをアルゴリズムによって探索する際に用いられる概念であり、分岐や進み方のパターンをツリー構造で表現したものです(B)。
ヒストグラムは、度数分布の階級ごとの度数を棒グラフで可視化したものです(C)。
[第3章、第8章]
マルコフ決定過程に関する知識を問う問題です。
強化学習では、「現在の状態から一時刻先の状態に遷移する確率は、現在の状態と取った行動のみに依存する」という仮定を置いて問題を扱うことが多くあります。このような考え方をマルコフ決定過程と呼びます(A)。選択肢B、C、Dは不適切です。
[第3章]
混同行列に関する知識を問う問題です。
分類タスクにおいて、予測値と正解ラベルの組み合わせを以下のようにまとめたものを混同行列と呼びます。
| 予測 | |||
|---|---|---|---|
| 陽性 (Positive) | 陰性 (Negative) | ||
| 正解 | 陽性 | 真陽性 (True Positive : TP) | 偽陰性 (False Negative : FN) |
| 陰性 | 偽陽性 (False Positive : FP) | 真陽性 (True Negative : TN) |
したがって、(ア)には真陽性、(イ)には偽陰性、(ウ)には偽陽性、(エ)には真陰性が入ります(D)。
[第3章]
k-分割交差検証の概要や利点について問う問題です。
k-分割交差検証は、データをk個のブロックに分割して、学習および評価を繰り返す手法です(A、B)。
k-分割交差検証では、分割したすべてのデータを評価に利用できるため、汎化性能を正確に見積もりやすいという特徴があります(D)。一方で、分割したデータの数だけ学習、評価を行う必要があるため、計算コストは高くなります(C)。
[第3章]
出力層に用いられる活性化関数であるソフトマックス関数について問う問題です。
ソフトマックス関数は、多クラス分類タスクを解くネットワークの出力層に用いられる活性化関数です(A、B)。ソフトマックス関数によって、予測値を各クラスが属する確率に変換することができます。
ソフトマックス関数は、主に入力層や隠れ層で用いられる活性化関数ではありません(C、D)。
[第4章]
アンサンブル学習を行う方法を問う問題です。
アンサンブル学習を行う代表的な方法として、バギングとブースティングがあげられます。バギングは、複数の弱学習器の出力から多数決や平均によって最終的な出力を決定する方法です。一方、ブースティングは、1つずつ直列に弱学習器を繋いでいき、前の弱学習器における誤差を補うように学習を行う方法です。よって(ア)(ウ)は適切です(C)。
パディングは、画像データなどの周囲を0などの定数で補完するテクニックです(イ)。プーリングは、ニューラルネットワークのある層への入力データを領域ごとに平均したり最大値を取ったりする処理です(エ)。
[第3章、第5章]
ウォード法に関する知識を問う問題です。
ウォード法は、階層ありクラスタリングの一手法です。ウォード法では、データ間の距離を階層的に表した樹形図(デンドログラム)を生成することができます。デンドログラムを読み解くことによって、クラスタ同士がどのような関係をもっているかを解釈することができます(D)。
決定木は、特徴量の値に応じて分岐路を作っていき、最終的な予測値を決定する教師あり学習のアルゴリズムです(A)。
探索木は、迷路などをアルゴリズムによって探索する際に用いられる概念であり、分岐や進み方のパターンをツリー構造で表現したものです(B)。
ヒストグラムは、度数分布の階級ごとの度数を棒グラフで可視化したものです(C)。
[第3章、第8章]
マルコフ決定過程に関する知識を問う問題です。
強化学習では、「現在の状態から一時刻先の状態に遷移する確率は、現在の状態と取った行動のみに依存する」という仮定を置いて問題を扱うことが多くあります。このような考え方をマルコフ決定過程と呼びます(A)。選択肢B、C、Dは不適切です。
[第3章]
混同行列に関する知識を問う問題です。
分類タスクにおいて、予測値と正解ラベルの組み合わせを以下のようにまとめたものを混同行列と呼びます。
| 予測 | |||
|---|---|---|---|
| 陽性 (Positive) | 陰性 (Negative) | ||
| 正解 | 陽性 | 真陽性 (True Positive : TP) | 偽陰性 (False Negative : FN) |
| 陰性 | 偽陽性 (False Positive : FP) | 真陰性 (True Negative : TN) |
したがって、(ア)には真陽性、(イ)には偽陰性、(ウ)には偽陽性、(エ)には真陰性が入ります(D)。
[第3章]
k-分割交差検証の概要や利点について問う問題です。
k-分割交差検証は、データをk個のブロックに分割して、学習および評価を繰り返す手法です(A、B)。
k-分割交差検証では、分割したすべてのデータを評価に利用できるため、汎化性能を正確に見積もりやすいという特徴があります(D)。一方で、分割したデータの数だけ学習、評価を行う必要があるため、計算コストは高くなります(C)。
[第3章]
出力層に用いられる活性化関数であるソフトマックス関数について問う問題です。
ソフトマックス関数は、多クラス分類タスクを解くネットワークの出力層に用いられる活性化関数です(A、B)。ソフトマックス関数によって、予測値を各クラスが属する確率に変換することができます。
ソフトマックス関数は、主に入力層や隠れ層で用いられる活性化関数ではありません(C、D)。
[第4章]
誤差関数における鞍点に関する知識を問う問題です。
鞍点は、ある次元では極小となるものの、ほかの次元では極大となるような点です(D)。
選択肢Aは局所最適解に関する記述であり、Bは大域最適解に関する記述です。学習時に鞍点や局所最適解に陥ると、その周辺で学習が停滞し、パラメータがほとんど更新されなくなってしまうことがあります。また、Cの記述に関する点の一般的な名称はありません。
[第4章]
ハイパーパラメータに関する知識を問う問題です。
ハイパーパラメータは、機械学習モデルの構造などを決定する定数であり、モデルのパラメータを最適化する前に設定するものです。たとえば、ニューラルネットワークにおける学習率や層の数などはハイパーパラメータです(A)。
グリッドパラメータ、ランダムパラメータ、ノーマルパラメータという用語は一般的ではありません(B、C、D)。
[第4章]
畳み込み層やプーリング層の特徴について問う問題です。
畳み込み層では、ある層への入力データ全体に対して同じフィルタを用いて畳み込み演算を行います。このため、同じノード数間の全結合層と比較するとニューロン同士の結合が疎であり、効率的に学習を行うことができます(ア)。
また、畳み込み層やプーリング層による処理は位置のズレに頑健であり、これらを組み合わせることで、ネットワークへの入力データに対する位置不変性を獲得できます(イ)。
したがって、(ア)には疎結合が、(イ)には不変性が入ります(B)。
[第5章]
スキップ結合が導入されている代表的なネットワークについて問う問題です。
スキップ結合は、2015年に発表されたResNetに導入されたことで知られています。ResNetの登場以降、DenseNetやTransformerなどさまざまなネットワークでスキップ結合が用いられています(B、C、D)。
GoogLeNetはResNet以前(2014年)に発表されたネットワークであり、スキップ結合は用いられていません(A)。
[第5章、第6章]
RNNの学習に用いられる教師強制について問う問題です。
教師強制は、前の時刻の出力に対応する教師データを現在時刻の入力として用いる手法です(B)。
教師代入、教師抽出、教師反舞という用語は、RNNの学習に関するものとして一般的ではありません(A、C、D)。
[第5章]
画像データにおけるデータ拡張の手法について問う問題です。
画像の一部画素値を0またはランダムな値にする手法は、Random ErasingやCutoutと呼ばれます(A)。なお、Random Cropは、画像を一部切り取り、サイズの違うデータを生成する手法です(B)。Random Flipは、画像をランダムに反転する手法です(C)。Random Rotationは、画像をランダムに回転する手法です(D)。Mixupは、2つの画像を合成する手法です(D)。
[第5章]
ILSVRC (ImageNet Large Scale Visual Recognition Challenge) で優勝した歴代のネットワークについて問う問題です。
AlexNetは、ILSVRC 2012で優勝したネットワークです(D)。GoogLeNetは、ILSVRC 2014で優勝したネットワークです(B)。EfficientNetは、2019年にグーグルの研究者によって発表されたネットワークです。ILSVRC 2015で優勝したネットワークではありません。ILSVRC 2015で優勝したネットワークは、ResNetです(A)。SENetは、ILSVRC 2017で優勝したネットワークです(C)。
[第6章]
FCNの構造に関する知識を問う問題です。
FCNは、セマンティックセグメンテーションに用いられるネットワークです。畳み込み層とプーリング層のみから構成され、全結合層をもたないのが特徴です(A、B、C)。
FCNに限らず、一般的なニューラルネットワークは出力層をもちます(D)。
[第6章]
GPTに関する知識を問う問題です。
GPTは、Transformerのデコーダの構造を取り入れた事前学習モデルであり、2018年にOpenAIによって発表されました(B)。
ELMoは、単語の分散表現を獲得できるネットワークです。Transformerのデコーダの構造はもっていません(A)。BERTは、Transformerのエンコーダの構造を取り入れた事前学習モデルです(C)。GLUEは、複数の自然言語処理タスクにおける、機械学習モデルの精度評価を行うためのデータセットです(D)。
参考:GPTはGenerative Pre-trained Transformerの略と説明されることが多いですが、GPTの原著論文では、Generative Pre-Trainingとなっています。本問では、こちらで表記しています。
[第6章]
AlphaStarに関する知識を問う問題です。
AlphaStarは、深層強化学習を活用したゲームAIであり、スタークラフト2というゲームをプレイすることができます。スタークラフト2は、RTS (Real-Time Strategy) と呼ばれるジャンルに属する対戦型ゲームです(B)。
Atari2600は、強化学習の性能評価のベンチマークとして広く用いられているゲームですが、AlphaStarはAtari2600をプレイするゲームAIではありません(A)。AlphaStarは、囲碁や将棋をプレイするゲームAIではありません(C、D)。囲碁をプレイすることができるゲームAIとしては、AlphaGoがあげられます。
[第6章]
転移学習に関する知識を問う問題です。
事前学習済みモデルを異なるタスクに転用すること、またはそのために行う学習のことを、転移学習と呼びます(D)。
能動学習は、正解ラベルが付いていない大量のデータに対し、適応的にラベルを付与するデータを選択する手法です(A)。教師強制は、RNNなどの学習において、前の時刻の出力に対応する教師データを現在時刻の入力として用いる手法です(B)。マルチタスク学習は、1つのネットワークで複数のタスクを同時に扱う学習の総称です(C)。
[第6章]
SHAPに関する知識を問う問題です。
SHAPは、学習済みモデルにおいて、ある特徴量が予測値に与えた影響の度合いを求める手法です(B)。
GLUEは、複数の自然言語処理タスクにおける機械学習モデルの精度評価を行うためのデータセットです(A)。YOLOは、物体検出に用いられるネットワークです(C)。PCA (主成分分析) は、次元削減などに用いられる教師なし学習の手法です(D)。
[第6章]
Web APIに関する知識を問う問題です。
Web APIは、インターネットを介してシステム間でデータの受け渡しを行う代表的な仕組みです(C)。
選択肢Aはセマンティックウェブに関する記述、Bはクラウドに関する記述、DはIoT (Internet of Things) に関する記述です。
[第7章]
コーパスに関する知識を問う問題です。
コーパスは、自然言語に関するデータを大規模に収集し、コンピュータで処理しやすいように整理されたデータセットの総称です(D)。
ビッグデータは、インターネットの成長とともに蓄積された大量のデータを指す用語です。また、オープンデータセットは、インターネット上で公開されたデータセットです。ビッグデータやオープンデータセットは、自然言語以外のデータを含む概念です(A、B)。ImageNetは、およそ1400万枚の画像からなるオープンデータセットです(C)。
[第7章]
2点間の距離や類似度を測る代表的な指標に関する知識を問う問題です。
ユークリッド距離は、ユークリッド空間における2点を結ぶ線分の長さで定義される距離です(C)。ユークリッド距離の計算では、2点間の対応する各成分の差を二乗して足し合わせ、その平方根を求めます(A)。選択肢Bは、マハラノビス距離に関する記述であり、不適切です。ユークリッド距離の計算には2つのベクトルのなす角度は用いられません(D)。なお、2つのベクトルのなす角度を用いて、コサイン類似度と呼ばれる2点間の類似度を表す指標を計算することができます。
参考:2点間の対応する各成分の差の絶対値を足し合わせた距離は、マンハッタン距離と呼ばれます。
[第8章]
不正競争防止法における営業秘密の要件を問う問題です。
不正競争防止法においてデータなどの情報を営業秘密として保護するには、その情報が非公知性、有用性、秘密管理性の3つの要件を満たす必要があります(A、B、D)。新規性は、特許法において発明が特許を受けるための要件のひとつです(C)。
[第9章]
民法における準委任契約や請負契約に関する知識を問う問題です。
準委任契約は、検証や開発といった役務の提供を目的とする契約です。一方、請負契約は、具体的な仕事の完成を目的とした契約です(A、B)。準委任契約は、他人の物を保管するという役務の提供のみを目的とした契約ではありません(C)。準委任契約は、情報の取扱いを規定することを目的とした契約ではありません。なお、秘密情報の取扱いは、NDA(秘密保持契約)などによって規定することができます(D)。
参考:他人の物を保管するという役務の提供を目的とした契約を寄託契約と呼びます。
[第9章]
データ窃取に関する知識を問う問題です。
データ窃取は、学習済みモデルにデータを入力し、その出力を観察してモデルの学習データを推測する攻撃です(C)。データ窃取は、学習済みモデルへの入力データの不正取得とは関連しません(A、B)。選択肢Dは、モデル窃取に関する記述です。
[第10章]
人工知能研究の歴史やダートマス会議について問う問題です。
人工知能 (AI : Artificial Intelligence) は、1956年にアメリカで開催されたダートマス会議において、ジョン・マッカーシーによって初めて提言されたといわれています。ダートマス会議以降、人工知能は学術的な研究分野として注目されるようになっていったとされています(D)。アートマス会議、ゲートマス会議、ノートマス会議は、1956年に開催された人工知能に関連する会議として一般的ではありません(A、B、C)。
[第1章]
ILSVRC (ImageNet Large Scale Visual Recognition Challenge) に関する知識を問う問題です。
ILSVRCは、画像認識の精度を競い合う競技会です(A、B、C)。2012年には、ディープラーニングを活用したチームが圧倒的な勝利を収めたことで、ディープラーニングへの注目度が飛躍的に高まりました。チューリングテストによる評価を競う競技会はローブナーコンテストです(D)。
[第2章]
代表的な教師なし学習の手法に関する知識を問う問題です。
クラスタリングは、大量のデータから類似するデータを集めてグルーピングする手法であり、階層なしクラスタリングと階層ありクラスタリングに分類されます。階層なしクラスタリングの代表的な手法として、k-meansがあげられます(A)。また、階層ありクラスタリングの代表的な手法として、ウォード法があげられます(B)。与えられたデータを何らかの方法で圧縮し、その次元数を減らすことを次元削減と呼びます。次元削減を行う教師なし学習の代表的な手法として、主成分分析 (PCA) や特異値分解 (SVD) などがあげられます(C、D)。
[第3章]
ε-greedy方策に関する知識を問う問題です。
ε-greedy方策は、あるハイパーパラメータε (0以上1以下の値) を用いて、確率εで探索を行い、確率1-εで活用を行うアルゴリズムです。探索とは、未知の情報以外の情報を獲得するために行う行動であり、活用とは、既知の情報を利用して最大の報酬を得る行動です。多腕バンディット問題においては、探索ではすべてのスロットマシンからランダムに選択を行います(ア)。また、活用では、過去の試行結果から最も当たりの多かったスロットマシンを選択します(イ)。したがって、(ア)には探索、(イ)には活用が入ります(A)。
[第3章]
分類タスクにおいて用いられる基本的な用語について問う問題です。
真陽性は、モデルの予測値と正解ラベルが共に陽性であるようなデータです(A)。
偽陽性は、モデルが陽性と判定したものの、正解ラベルが陰性であるようなデータです(B)。
真陰性は、モデルの予測値と正解ラベルが共に陰性であるようなデータです(C)。
偽陰性は、モデルが陰性と判定したものの、正解ラベルが陽性であるようなデータです(D)。
[第3章]
モデルの複雑さを考慮した評価に関する知識を問う問題です。
オッカムの剃刀は、「ある事柄を説明するためには、必要以上に多くを仮定するべきでない」というモデル構築の指針です(ア)。また、赤池情報量基準 (AIC) は、モデルの予測精度と複雑さのトレードオフを考慮した評価指標です(イ)。AICを用いて予測精度と複雑さのバランスが良いモデルを選択することで、オッカムの剃刀に従ったモデル構築を行うことができます。したがって、(ア)にはオッカムの剃刀、(イ)には赤池情報量基準 (AIC) が入ります(B)。
ノーフリーランチ定理は、あらゆる問題において優れた汎化性能をもつモデルは存在しないということを示す定理です。AUCは、ROC曲線のグラフの下部の面積で表される評価指標であり、分類タスクに用いられます。
[第3章]
タスクに応じた適切な誤差関数を問う問題です。
Triplet LossやContrastive Lossは、主に深層距離学習に用いられる誤差関数です。Contrastive Lossは2つのデータを用いて計算され、Triplet Lossは3つのデータを用いて計算されます(A、B)。 MSEやMAEは、主に回帰タスクに用いられる誤差関数です。MSEは、回帰タスクにおいて最も広く用いられている誤差関数のひとつです。MAEは、外れ値の影響を受けにくい特徴があります(C、D)。
[第4章]
ニューラルネットワークにおける学習率について問う問題です。
学習率は、勾配降下法において、求めた勾配に従ってどの程度パラメータを更新するかを決定するハイパーパラメータです(A)。選択肢Bはエポックに関する記述です。Cの記述におけるハイパーパラメータは、正則化係数などと呼ばれます。Dは、バッチサイズに関する記述です。
[第4章、第5章]
ハイパーパラメータの探索手法に関する知識を問う問題です。
代表的なハイパーパラメータの探索手法として、グリッドサーチとランダムサーチがあげられます。グリッドサーチは、ハイパーパラメータの候補領域のすべての組み合わせを網羅的に探索する手法です(B)。ランダムサーチは、ハイパーパラメータの候補領域からランダムに選択して探索する手法です(D)。モーメントサーチ、ミニバッチサーチは、ハイパーパラメータを探索する手法として一般的ではありません(A、C)。
[第4章]
スキップ結合に関する知識を問う問題です。
スキップ結合は、ネットワーク内の層間を飛び越えた結合を行うことで、出力層で計算された誤差を入力層側まで伝播しやすくする手法です(B)。回帰結合は、時間ステップに応じた再帰的な結合を指す用語です(A)。疎結合や全結合は、層を飛び越えた結合を指す用語ではありません(C、D)。
[第5章]
Attentionに関する知識を問う問題です。
Attentionは、各時刻の状態に重み付けを行い、どのデータに注目すればよいかを計算する機構です(B)。Adamは、勾配降下法の手法のひとつです(A)。Atrous Convolution (Dilated Convolution) は、フィルタを適用する際に、フィルタの各要素に間隔を設ける畳み込みの手法です(C)。CECは、LSTMで用いられる長期的な情報を蓄えておくための機構です(D)。
[第4章、第5章、第6章]
SENet (Squeeze-and-Excitation Networks) に関する知識を問う問題です。
SENetは、畳み込み層が出力した特徴マップにAttentionを適用することで、予測性能を改善したCNNです(B)。SENetには、回帰結合層、Atrous Convolution (Dilated Convolution)、Depthwise Separable Convolutionは導入されていません(A、C、D)。なお、Atrous Convolutionを導入したネットワークとしてはDeepLabが、Depthwise Separable Convolutionを導入したネットワークとしてはMobileNetがあげられます。
[第6章]
n-gramに関する知識を問う問題です。
n-gramは、隣り合うn個の単語や文字をひとまとまりとして扱う概念です。たとえば、n=2のとき、"I have a bag" という文を "I have", "have a", "a bag" というように分解することができます(B)。skip-gramは、word2vecにおける学習に用いられるネットワークです(A)。形態素は、文章や単語を分解していった際の、意味のある最小単位を指す用語です(C)。分散表現は、単語の多次元ベクトルによる表現を指す用語です(D)。
[第6章]
BERTに関する知識を問う問題です。
BERTは、自然言語処理に用いられる事前学習モデルです。BERTでは、MLM、NSPと呼ばれる2つの自己教師あり学習のタスクを解くことによって事前学習を行います(B)。Swin TransformerやVision Transformerは画像認識に用いられるネットワークであり、MLM、NSPによる事前学習は行われません(A、D)。word2vecは、単語の分散表現を獲得する手法であり、その学習はskip-gramとCBOWという2つのネットワークによって行われます。MLM、NSPによる事前学習は行われません(C)。
[第6章]
OpenAI Fiveに関する知識を問う問題です。
OpenAI Fiveは、多人数対戦型ゲームであるDota2において、2018年に当時の世界トップレベルのプレイヤーで構成されたチームに勝利したゲームAIです。OpenAI Fiveはマルチエージェント強化学習の手法を用いており、PPO (Proximal Policy Optimization) と呼ばれる強化学習のアルゴリズムを用いて学習を行います(A、C)。AlphaStarは、スタークラフト2というゲームをプレイすることができるゲームAIです(B)。Agent57はDQNベースの手法であり、ゲームAIとしてAtari2600をプレイすることができます(D)。
[第6章]
転移学習に関連するキーワードを問う問題です。
転移学習において、転移先のタスクにおける学習データを全く用いないことを、Zero-shot Learningと呼びます(ア)。また、ごく少量の学習データだけを用い、新たなタスクを解くネットワークを学習することを、Few-shot Learningと呼びます(イ)。したがって、(ア)にはZero-shot Learning、(イ)にはFew-shot Learningが入ります(B)。No-shot LearningやSome-shot Learningという用語は、転移学習において一般的ではありません。
[第6章]
システム開発の進め方に関する代表的な手法を問う問題です。
アジャイル開発は、設計からリリースまでのサイクルを繰り返しながら開発を行う手法です(C)。一方、ウォーターフォール開発は、設計から実装、テスト、リリースまでの計画をはじめにすべて策定し、計画に沿って開発を行う手法です(C)。エッジ開発、アンサンブル開発という用語は一般的ではありません(B、D)。
[第7章]
統計的仮説検定の流れに関する知識を問う問題です。
統計的仮説検定では、帰無仮説と、それを否定した対立仮説を用いて仮説の検証を行います。帰無仮説のもとではほとんど起こらない現象が起きていることをデータから示すことで、帰無仮説を棄却し、対立仮説が正しいことを主張することができます(D)。選択肢A、B、Cは不適切です。
[第8章]
不正競争防止法における限定提供データについて問う問題です。
限定提供データは、組織間で共有することを前提としたデータのように、営業秘密として保護できない情報を不正競争防止法のもとで保護するための概念です。このようなデータは非公知性または秘密管理性を満たさないため、営業秘密として保護することはできませんが(ア)、一定の条件を満たすことで、限定提供データとして保護することができます(イ)。したがって、(ア)には営業秘密が、(イ)には限定提供データが入ります(B)。
[第9章]
AI開発における透明性や公平性を確保するために留意すべき事項を問う問題です。
代理変数は、センシティブ情報との相関が高いことなどにより、センシティブ情報を代替しうるデータです。センシティブ情報やその代理変数を特徴量から除外することは、公平な学習済みモデルを得ることに繋がります(A)。学習データの来歴をまとめて公表することは、透明性を確保するうえで重要です(B)。学習済みモデルの入出力の履歴を管理し、追跡可能性を確保することで、公平性に問題があるような出力を監視し、検証を行うことができます(C)。AI開発者の国籍や性別、経歴といった属性が可能な限り多様になるようなチームを構成することで、公平性を確保しやすくなることが期待されます(D)。
[第10章]
テキストデータにおけるデータ拡張の手法について問う問題です。
Noisingは、単語の入れ替え、削除、挿入、置換などをランダムに行うことでデータを増やす手法です(D)。Paraphrasingは、単語を別の類似した単語で置き換える手法です(A)。CutMixは、CutoutとMixupを組み合わせて生成を行う画像データの拡張手法です(B)。Samplingは、テキストデータの分布を推定し、新しいデータのサンプリングを行う手法です(C)。
[第5章]
音声データにおけるA-D変換の手法に関する知識を問う問題です。
パルス符号変調 (PCM) は、標本化、量子化、符号化の3つのステップからなるA-D変換の手法です(A)。高速フーリエ変換 (FFT) は、音声などの波形データの周波数ごとの強さ(振幅)を分析するアルゴリズムです(B)。フォルマントは、周波数スペクトルにおけるスペクトル包絡のピークを指す用語です(C)。CTCは、空文字の利用や同じ音素の集約といった工夫により、RNNで音声認識タスクを扱えるようにした手法です(D)。
[第6章]
代表的なモデル圧縮の手法について問う問題です。
モデル圧縮は、機械学習モデルの精度をできるだけ保ちながらモデルのサイズを小さくする技術です。代表的な手法として、知識蒸留、プルーニング、量子化などがあげられます。プルーニングは、一度学習を行ったモデルのパラメータの一部を削除することで、パラメータ数を削減する手法です(A)。プルーニングは、一部の特徴量を削除する手法ではありません(D)。また、モデルに入力する特徴量を削減することを、特徴選択と呼びます。選択肢Bは知識蒸留に関する記述であり、不適切です。Cは量子化に関する記述であり、不適切です。
[第6章]
サンプリングバイアスに関する知識を問う問題です。
データの収集方法が適切でないことなどにより、収集したデータがある範囲に偏ることを、サンプリングバイアスと呼びます(D)。なお、学習済みモデルの予測がある範囲に偏ることを、アルゴリズムバイアスと呼びます(A)。新しく観測されるデータの分布が、訓練データの分布とずれることをドメインシフトと呼びます(B)。学習済みモデルのパラメータの偏りを指す一般的な用語はありません(C)。
[第7章]
SaaSに関する知識を問う問題です。
SaaSは、インターネット経由でアプリケーション機能を提供するサービスの形態です(D)。IaaSは、仮想化したハードウェアそのものを提供するサービスの形態です(A)。PaaSは、アプリケーションの運用や維持管理を行うためのプラットフォームを提供するサービスの形態です(B)。FaaSは、アプリケーションの構築や起動に関するインフラを管理することなく、イベントに応じてソースコードを実行できるようにするサービスです(C)。
[第9章]
ディープフェイクに関する知識を問う問題です。
ディープフェイクは、AIを用いて動画の人物の顔を別人のものに変更し、要人の発言を捏造するような技術です(D)。エコーチェンバーは、ソーシャルメディアを利用する際、自分と似た興味関心をもつユーザーをフォローする結果、自分が発信した意見に対して似た意見が返ってきやすくなる現象です(A)。フィルタバブルは、アルゴリズムがユーザーの行動履歴を分析または学習し、ユーザーの価値観に沿う情報のみを優先的に表示することで、ユーザーが自身の価値観の中に孤立してしまうような情報環境を指す用語です(B)。スパムフィルタは、メールの内容からそのメールが不適切かどうかを判定するものです(C)。
[第10章]
RandAugmentに関する知識を問う問題です。
RandAugmentは、学習時に適用するデータ拡張手法を決定する戦略のひとつです。あらかじめデータ拡張を行う手法の候補を決めておき、ミニバッチごとに一定数の手法を無作為に選び、一定の強さで適用します(C)。CutoutやRandom Erasingは、画像の一部の画素値を0またはランダムな値にすることでデータを増やす画像データ拡張手法です(A、B)。RandExpandというデータ拡張の戦略は一般的ではありません(D)。
[第5章]