人工知能は、人間のような知能的な処理能力をもつ情報処理システムである。近年では、人工知能を実現する技術として機械学習が注目され、特に機械学習の一分野である(ア)が盛んに研究されている。
人工知能(AI:Artificial Intelligence)に関する基礎的な知識を問う問題です。
機械学習は、大量のデータからパターンを自動的に抽出し、予測や分類を行う人工知能分野の技術です。
ディープラーニングは機械学習の一分野であり、画像処理や自然言語処理などへの応用が盛んに研究されています(C)。
エキスパートシステムは、専門家が持つような知識にもとづいた推論で、複雑な問題を解くようなコンピュータシステムです。第二次AIブームの技術として知られていますが、機械学習の一分野ではありません(A)。
RPA(Robotic Process Automation)は、人間が行う作業をソフトウェアによって代行する技術であり、機械学習の一分野ではありません(B)。
人工無脳は、あらかじめ人間が設定したパターンによって機械的に応答するプログラムであり、機械学習の一分野ではありません(D)。
探索木の探索手法に関する知識を問う問題です。
深さ優先探索は、最も深いノードに達するまで、可能な限り深く探索する探索方法です。1つの経路を進み、これ以上進めなくなったところで引き返し、次の候補の経路を進みます(A、B、D)。
Cは、スタート地点に近いノードから順に探索していく幅優先探索による探索です。
オントロジーに関連するキーワードを問う問題です。
ライトウェイトオントロジーは、正確性よりも実用性を優先する考え方にもとづいて構築するオントロジーです(B)。
ヘビーウェイトオントロジーは、知識をどのように記述すべきかを哲学的に考察し、正確性を重視して構築するオントロジーです(A)。
ラージウェイトオントロジー、スモールウェイトオントロジーという用語は一般的ではありません(C、D)。
教師あり学習に分類される代表的な手法について問う問題です。
サポートベクターマシン(SVM)、ランダムフォレスト、AdaBoostは、教師あり学習に分類される代表的な手法です(A、B、C)。
k-meansは、階層なしクラスタリングの代表的な手法であり、教師なし学習に分類されます(D)。
決定木を用いるアンサンブル学習の手法について問う問題です。
ランダムフォレストは、弱学習器に決定木を用い、バギングによってアンサンブル学習を行う手法です(D)。
AdaBoostやXGBoostは、ブースティングによるアンサンブル学習を行う手法です。その弱学習器として、決定木や線形回帰が用いられます(A、B)。
サポートベクターマシン(SVM)では、決定木は用いられません(C)。
特徴量の次元削減を行う代表的な手法について問う問題です。
与えられたデータを何らかの方法で圧縮し、その次元数を減らすことを次元削減と呼びます。
次元削減を行う代表的な手法として、主成分分析(PCA)、特異値分解(SVD)、多次元尺度構成法(MDS)、t-SNEがあげられます(A、C、D)。
k-meansは階層なしクラスタリングの手法であり、次元削減を行う手法ではありません(B)。
Q学習に関する知識を問う問題です。
行動価値関数を最適化する手法として、Q学習やSARSAがあげられます(B)。
方策勾配法は、方策をあるパラメータを用いた関数で表し、累積報酬を最大化するようにそのパラメータを学習することで、方策そのものを学習する手法です(C)。
R学習や状態勾配法という用語は強化学習において一般的ではありません(A、D)。
分類タスクにおける代表的な評価指標について問う問題です。
正解率は、予測結果全体に対して、陽性、陰性が正しく予測された割合を表す指標です(A)。
適合率は、陽性と予測されたもののうち、実際に陽性であった割合を表す指標です(B)。
再現率は、実際に陽性であるもののうち、陽性と予測された割合を表す指標です(C)。
F値は、適合率と再現率の調和平均で表される指標です(D)。
ディープラーニング以外の一般的な機械学習では、データからの( ア )の抽出を人間が行い、その結果をもとにモデルが学習を行う。一方、ディープラーニングでは、あるデータに対する最適な( ア )を学習している。これは( イ )と呼ばれる。
ディープラーニングの特徴に関する知識を問う問題です。
ディープラーニングでは、それ以外の一般的な機械学習手法とは異なり、あるデータに対する最適な特徴量を学習します。これを特徴表現学習と呼びます。
したがって、(ア)には特徴量、(イ)には特徴表現学習が入ります(B)。
分類タスクに用いられる誤差関数について問う問題です。
分類タスクに用いられる代表的な誤差関数として、交差エントロピーがあげられます(C)。
AUCやF値は評価指標であり、誤差関数ではありません(A、D)。
MAEは、回帰タスクに用いられる誤差関数です(B)。
勾配降下法の代表的な手法について問う問題です。
代表的なものとしてモーメンタム、AdaGrad、AdaDelta、RMSprop、Adam、AdaBoundなどがあげられます(A、C、D)。
AdaBoostは、ブースティングによるアンサンブル学習を行う教師あり学習の手法です(B)。
畳み込みに関連するキーワードについて問う問題です。
フィルタ(またはカーネル)は、パラメータの集合です(A)。
ストライドはフィルタを移動させる間隔です(B)。
パディングは周囲を0などで補完するテクニックです(C)。
画像におけるRGBの次元を表す概念は、チャンネルと呼ばれます(D)。
ResNetの概要や構造に関する知識を問う問題です。
ResNetは、ILSVRC 2015で優勝したCNNです。スキップ結合とボトルネック構造を採用しています(A、B、D)。
Inceptionモジュールを導入したネットワークは、GoogLeNetです(C)。
Transformerに用いられているAttentionの特徴について問う問題です。
Source-Target Attention(Encoder-Decoder Attention)は、デコーダに入力文の情報を伝達するための機構です(A、B)。
Transformerでは、順番の情報を保持するために位置エンコーディングが用いられます。
Self-Attentionは関連性を捉える機構であり(C)、Multi-Head Attentionはそれを並列に配置したものです(D)。
( ア )は、1998年にヤン・ルカンによって提案された初期の畳み込みニューラルネットワーク(CNN)である。
LeNetに関する知識を問う問題です。
LeNetは、1998年にヤン・ルカンによって提案された初期のCNNです(A)。
ネオコグニトロンは1979年(B)、AlexNetは2012年(C)、GoogLeNetは2014年(D)に提案されました。
画像分類タスクに用いられるさまざまなネットワークについて問う問題です。
MnasNet、Vision Transformer、Swin Transformerは画像認識に用いられます(A、C、D)。
BERTは、自然言語処理に用いられる事前学習モデルです(B)。
代表的な文章の解析手法に関する知識を問う問題です。
形態素解析は、文章を意味のある最小単位に分割し、品詞を付与する手法です(C)。
文章の構造を解析する手法は、構文解析と呼ばれます(A)。
WaveNetに関する知識を問う問題です。
WaveNetは、音声生成タスクを解くために設計されたネットワークです(D)。
ドメインランダマイゼーションに関する知識を問う問題です。
シミュレータと実世界の差を埋めるため、環境パラメータをランダムに変えて学習する手法をドメインランダマイゼーションと呼びます(C)。
ランダムサーチやグリッドサーチは、ハイパーパラメータを探索する手法です(B、D)。
CAMに関する知識を問う問題です。
CAMは、特徴マップを利用してモデルの注目箇所を可視化する手法です(A)。
PIは検証データ全体での特徴量の重要度(B)、LIMEやSHAPは特定の入力データにおける予測への寄与度(C、D)を求める手法です。
AI開発では、本格的な開発を行う前にデータ分析や実験的なモデル構築などを行い、プロジェクトの実現可能性を見積もるアプローチが取られることがあり、これをPoC(Proof of Concept)と呼びます。選択肢B、C、Dは不適切な記述です。
Dockerは、システムを動かすための仮想環境を構築するためのツールです。AI開発に広く用いられている言語はPython(B)、ブラウザ上でコード実行できるツールはJupyter Notebook(D)、ライブラリはPyTorchやTensorFlow(A)などが挙げられます。
| 1等 | 2等 | はずれ | |
|---|---|---|---|
| 当選確率 | $\frac{1}{10}$ | $\frac{3}{10}$ | $\frac{6}{10}$ |
| 賞金(円) | 1000 | 500 | 0 |
期待値は、確率変数がとる値とその確率の積の総和で求められます。
$1000 \times \frac{1}{10} + 500 \times \frac{3}{10} + 0 \times \frac{6}{10} = 100 + 150 + 0 = 250$(円)となります。
人種や社会的身分のように、本人に対する不当な差別や偏見が生じないように特別な配慮を要する個人情報は、要配慮個人情報と呼ばれます。仮名加工情報(A)や個人識別符号(C)、保有個人データ(D)とは定義が異なります。
NDA(秘密保持契約)は秘密情報の取扱いを規定したもので、ガイドラインではアセスメントの段階での締結を提唱しています。GDPRは規則(A)、ELSIは検討の試み(B)、PoCは開発プロセス(C)であり、契約ではありません。
法律による規制をハードロー、私的な取り決めなどによる自主的な規制をソフトローと呼びます。ロングローやショートローという用語は一般的ではありません。
攻撃者が細工をしたモデルを配布して利用させる攻撃をモデル汚染と呼びます。データ汚染は学習データに不適切なデータを混入させる攻撃(C)、Adversarial Attackは入力データに細工をする攻撃の総称です(A)。
「AIが実現しているのは自動化などの単純な処理であり、知能をもつものではない」と考える心理効果をAI効果と呼びます。対して、コンピュータに知性があると錯覚する効果はイライザ効果です(A)。
ウェブデータを解析して知識を取り出す技術をウェブマイニングと呼びます。セマンティックウェブ(B)は高度な意味処理を行う技術、オントロジー(C)は用語関係の体系的整理を指します。
半教師あり学習は、教師データ(ラベル)があるデータとないデータの両方を用いる学習方法です。これによりアノテーションのコストを削減できます。Aは教師あり学習、Cは教師なし学習、Dは強化学習の説明です。
(ア)ランダムフォレストは、学習時に複数の決定木を構築する
(イ)ランダムフォレストは、ブースティングを行う手法である
(ウ)ランダムフォレストは、回帰タスクに用いることができる
(エ)ランダムフォレストは、分類タスクに用いることができる
ランダムフォレストは、複数の決定木を構築し、回帰や分類の両方に適用可能な手法です(ア・ウ・エ)。バギングを用いる手法であり、ブースティングを用いる手法ではありません(イは不適切)。
ウォード法は階層ありクラスタリングの手法であり、次元削減(特徴量の削減)には用いられません。次元削減には主成分分析(PCA)などが使われます。A、B、Dの応用例は適切です。
A3C (Asynchronous Advantage Actor-Critic) は、Actor-Criticの考え方を取り入れた代表的な手法です。UCB方策(A)はバンディット問題、REINFORCE(B)は方策勾配法、SARSA(D)は価値ベースの手法です。
「陽性と予測したもののうち、実際に陽性である割合」を高めたい場合は、適合率(Precision)を重視します。「もれなく見つける(再現率)」よりも「予測の確度(適合率)」を優先するビジネス課題に適しています。A、Bは回帰用指標です。
( ア )パーセプトロンは、入力層、複数の隠れ層、および出力層から構成されるニューラルネットワークである。
入力層、1層以上の隠れ層、出力層から構成されるネットワークを多層パーセプトロンと呼びます。隠れ層を持たないものは単純パーセプトロン(B)と呼ばれます。
パラメータの大きさの絶対値の総和を加えるのはL1正則化(ラッソ回帰などで使用)です。2乗和を加えるのはL2正則化(リッジ回帰などで使用)です。
バッチ学習は、分割せず「すべて」の訓練データを用いて一度に更新を行う手法です。データを分割して順に更新するのはミニバッチ学習(B)の説明に近く、Aの記述は不適切です。オンライン学習(C)は1データずつ行います。
出力サイズは、入力画像に対してフィルタを適用した回数で決まります。
4x4の画像で2x2のフィルタをストライド2で動かすと、縦方向に2回、横方向に2回適用できるため、出力サイズは 2x2 となります。
再帰的な結合(回帰結合)を持つネットワークは、リカレントニューラルネットワーク(RNN)です。CNN(B)は畳み込み層を用い、オートエンコーダ(C)は次元削減などに用いられるエンコーダ・デコーダ構造を持ちます。
(ア)key
(イ)item
(ウ)query
(エ)value
TransformerのAttention(Scaled Dot-Product Attentionなど)では、query (Q)、key (K)、value (V) という3つの記号(ベクトル/行列)を用います(ア・ウ・エ)。itemという記号は使われません。
( ア )は、1970年頃にテリー・ウィノグラードによって開発されたシステムである。( ア )はプランニングの技術を活用しており、コンピュータ上の「積み木の世界」の中で、英語による指示によって物体を動かすことができる。
SHRDLUは、コンピュータ上の「積み木の世界」で英語の指示通りに物体を動かすシステムです。マイシンやDENDRALはエキスパートシステム(A、D)、イライザは初期の対話プログラム(C)です。
Depthwise Convolutionは、チャンネル「ごと」に独立して畳み込みを行います。すべてのチャンネルをまとめて畳み込むのは「通常の畳み込み」であるため、Bは不適切です。Pointwise Convolution(1×1畳み込み)と組み合わせることで計算量を削減します。
VGGは画像分類用のネットワークであり、単体で物体の位置特定(バウンディングボックスの出力)を行う物体検出には用いられません。SSDやYOLOは物体検出の代表的な手法です。
CBOWはWord2Vecの学習手法の一つで、周囲の単語から対象単語を予測します。NSP(次文予測)を用いて事前学習を行うのはBERTであるため、Dは不適切です。
人間が発声する区別可能な音を音韻(C)と呼びます。一方、言語ごとに意味を区別する最小の音の単位を音素(A)と呼びます。
ChatGPTのベースとなるGPTシリーズには、Transformerの構造が取り入れられています。WaveNetは音声生成、拡散モデルは画像生成などで主に使われます。
Permutation Importanceは、検証データ(A)の特定の特徴量をシャッフルし、予測精度がどれだけ低下するかで重要度を測定します。個別の入力データに対する寄与度を測る手法はLIMEやSHAPです。
業務プロセスを抜本的に再設計することをBPR(ビジネスプロセス・リエンジニアリング)と呼びます。
アノテーションは、データに対して「これは猫である」といった教師データ(ラベル)を付与する作業を指します。
標準偏差は「分散」の平方根をとったものです。相関係数とは無関係であるため、Bは不適切です。
個人データは、データベース化されて検索可能な状態にある個人情報を指します。A・Bは仮名加工情報や匿名加工情報、Cは要配慮個人情報の説明です。
設計段階からプライバシー保護を組み込む考え方をプライバシー・バイ・デザイン(PbD)と呼びます。
シンボルグラウンディング問題(記号接地問題)は、AIが扱う記号(言葉など)を、現実世界の感覚対象と結び付けられない問題を指します。Aはフレーム問題、Cは次元の呪いの説明です。
ウォード法は階層ありクラスタリングの手法であり、ゲームの探索には用いられません。Mini-Max法(A)やαβ法(B)、モンテカルロ法(D)はゲーム探索の代表的なアルゴリズムです。
DENDRALは未知の有機化合物を特定する初期のエキスパートシステムです。SHRDLU(A)やSTRIPS(B)はプランニング、イライザ(C)は対話プログラムです。
重回帰分析は「数値」を予測する回帰タスクに用います。Dのように「市」を予測するのは「分類タスク」であるため、不適切です。
カーネルトリックを用いることで、高次元へ写像したかのように計算し、線形分離不可能なデータでも分類できるようにします。
レコメンデーションの代表的手法は協調フィルタリング(C)です。ユーザー同士の類似性などから好みを予測します。
( ア )は、方策勾配法の計算を行う際に用いられる強化学習のアルゴリズムであり、AlphaGoなどに活用されている。
方策勾配法を用いたアルゴリズムとしてREINFORCEがあげられます。RLHF(C)は人間からのフィードバックを用いる手法で、ChatGPTなどで使われています。
過学習(オーバーフィッティング)とは、訓練データに過剰に適合してしまい、未知のテストデータへの精度が落ちる現象を指します(A)。
(ア)GPU (Graphics Processing Unit)
(イ)TPU (Tensor Processing Unit)
(ウ)QPU (Quantum Processing Unit)
(エ)CPU (Central Processing Unit)
ディープラーニングに用いられる演算処理装置について問う問題です。
GPUは、画像や映像などの並列処理に特化した演算処理装置であり、ディープラーニングにおける並列演算に用いられます(ア)。
TPUは、テンソル(行列やベクトル)の計算処理に最適化された演算処理装置であり、ディープラーニングにおける並列演算に用いられます(イ)。
QPUは、量子コンピュータにおける演算処理装置であり、ディープラーニングにおける並列演算を高速に行うものではありません(ウ)。
CPUはコンピュータ全般の作業を順に処理するための演算処理装置であり、ディープラーニングにおける並列演算を高速に行うものではありません(エ)。
したがって、(ア)と(イ)が適切な組み合わせです(A)。
ニューラルネットワークにおけるドロップアウトについて問う問題です。
ドロップアウトは、ニューラルネットワークの訓練時に、ランダムにニューロンを除外するテクンスクです。ドロップアウトを用いることで、汎化性能が向上する場合があります(D)。
あるデータ集合からいくつかのデータを抽出することをサンプリングなどと呼びます(A)。
プーリングは、ニューラルネットワークのある層への入力データを領域ごとに平均したり最大値を取ったりする処理です(B)。
ホールドアウト(検証)は、データを訓練用とテスト用に分割し、訓練データでモデルを学習させ、テストデータでモデルの性能を評価する方法です(C)。
ミニバッチ学習において、抽出したデータを用いてパラメータの更新を行う一連の操作の単位を( ア )と呼ぶ。複数回の( ア )によりパラメータを更新し、すべての訓練データを一巡したとき、1( イ )と数える。ニューラルネットワークの学習では、( イ )数を1より大きい値に設定し、複数回にわたって訓練データを学習させることが多い。
イテレーションやエポックに関する知識を問う問題です。
ミニバッチ学習において、抽出したデータを用いてパラメータの更新を行うという一回の操作をイテレーションと呼びます(ア)。また、複数回のイテレーションによって、すべての訓練データを用いてパラメータを更新したとき、その繰り返しの単位をエポックと呼びます(イ)。
したがって、(ア)にはイテレーション、(イ)にはエポックが入ります(B)。
Dilated Convolution(Atrous Convolution)に関する知識を問う問題です。
Dilated Convolutionは、特徴マップにフィルタを重ねる際に、フィルタの各要素に間隔を設ける畳み込みの手法です。これにより、同じフィルタの要素数でより広い範囲を畳み込むことが可能になります(A)。
選択肢Bは、MobileNetに用いられているDepthwise Separable Convolutionに関する記述です。Cは、ResNetに用いられているボトルネック構造に関する記述です。Dは、U-Netのデコーダなどに用いられている畳み込み処理に関する記述です。
LSTMの構造に関する知識を問う問題です。
LSTMは、入力ゲート、出力ゲート、忘却ゲートからなるゲート機構をもつRNNです(A、B、C)。
更新ゲートは、GRUのゲート機構を構成する要素です(D)。
Transformerにおける位置エンコーディングに関する知識を問う問題です。
TransformerにおけるAttentionの計算では、その構造上、単語の順番に関する情報を保持することができません。そこで、単語の位置に固有な情報を入力に加えることで、この問題を回避することができます。このような計算を位置エンコーディングと呼びます(B)。その他の選択肢は不適切です(A、C、D)。
GoogLeNetの構造に関する知識を問う問題です。
GoogLeNetは、Inceptionモジュールを積層した構造をもつCNNです。Inceptionモジュールとは、複数の異なるフィルタサイズをもつ畳み込み層を組み合わせた構造のことです(D)。
VGG、AlexNet、LeNetはInceptionモジュールを導入したCNNではありません(A、B、C)。
物体検出を行う代表的なネットワークの分類について問う問題です。
物体検出を行うネットワークには、画像中の物体の位置の特定を行った後、その物体のクラスを識別する2段階モデルと、物体位置の特定およびクラス識別を同時に行う1段階モデルがあります。代表的な2段階モデルとしてR-CNNがあげられます(D)。また、代表的な1段階モデルとしてYOLOやSSDがあげられます(A、B)。
U-Netは、1段階でセマンティックセグメンテーションを行うネットワークです(C)。
( ア )は、単語の分散表現を学習できるライブラリであり、2016年に当時のフェイスブックによって提案された。( ア )は、単語をさらに細かい単位に分割することによって、訓練データにない語彙に対しても埋め込みを計算できるという特徴がある。
fastTextに関する知識を問う問題です。
fastTextは、2016年に当時のフェイスブック(現メタ)によって提案された自然言語処理のライブラリです。単語を部分文字列に分割することで、訓練データにない語彙に対しても埋め込みを計算できるのが特徴です(A)。
word2vecは、単語の分散表現を獲得する手法ですが、2013年にグーグルによって提案されたものです(B)。
CBOWは、word2vecの学習に用いられるネットワークです(C)。
TF-IDFは、ある文章内の単語の出現回数と、データセット全体での単語の出現頻度を考慮して文章をベクトル化する手法です(D)。
深層強化学習の代表的な手法について問う問題です。
深層強化学習は、強化学習とディープラーニングを組み合わせた学習手法です。DQNは、Q学習とディープラーニングを組み合わせた深層強化学習の手法です。また、DQNを取り入れた手法として、Ape-X、ノイジーネットワークなどがあげられます(B、C、D)。
REINFORCEは、方策勾配法の計算を行う際に用いられる強化学習のアルゴリズムであり、強化学習とディープラーニングを組み合わせた学習手法ではありません(A)。
敵対的生成ネットワーク(GAN)に関する知識を問う問題です。
GANは、ジェネレータ(生成器)とディスクリミネータ(識別器)から成るネットワークアーキテクチャであり、主に画像生成に用いられます(C、D)。
なお、エンコーダ、デコーダから成り、次元削減を行うネットワークアーキテクチャとして、オートエンコーダがあげられます(A)。また、エンコーダ、デコーダから成り、機械翻訳などを行うネットワークアーキテクチャとして、Seq2Seqがあげられます(B)。
MLOpsに関する知識を問う問題です。
MLOpsは、AIを用いたシステムを開発、運用する際の工程全体を統合することに関連する概念や方法論を指す用語です(B)。
MLOpsは、AI開発における透明性や契約に関連するガイドラインではありません(A、C)。
業務プロセスを再設計することをBPR(Business Process Re-engineering)と呼びます。MLOpsは、業務プロセスの再設計に関連する概念ではありません(D)。
疑似相関に関する知識を問う問題です。
疑似相関とは、確率変数Xと確率変数Yの間に何ら因果関係が想定されないにもかかわらず、確率変数Xと確率変数Yが相関している状態のことです(C)。
この疑似相関の背景には、確率変数X、確率変数Yのそれぞれと相関する確率変数Zが存在していると考えられます。このZの影響を取り除いたXとYの相関係数を求めることができ、この相関係数を偏相関係数と呼びます(A)。
偽相関、全相関という用語は一般的ではありません(B、D)。
個人識別符号に該当するものを判断できるかを問う問題です。
個人識別符号とは、それそのものから特定の個人を識別することができるものです。旅券番号や顔写真データ、指紋データといったものは、個人識別符号に該当します(B、C、D)。
郵便番号は、それそのものから特定の個人を識別できるものではなく、個人識別符号には該当しません(A)。
センシティブ情報に関する知識を問う問題です。
人種や国籍などのように、差別や偏見が生じないように注意すべき情報を、センシティブ情報と呼びます(D)。
仮名加工情報や匿名加工情報は個人情報保護法における概念であり、差別や偏見といった内容とは関連しません(A、B)。
イニシアティブ情報という用語は一般的ではありません(C)。
ボードゲームにおけるMini-Max法に関する知識を問う問題です。
Mini-Max法は、自分の手番でスコア最大の手を選び、相手の手番でスコア最小の手が選ばれることを仮定して、次の手を網羅的に探索するアルゴリズムです(A)。
その他の選択肢は不適切です(B、C、D)。
人間は、五感や経験などを通して「リンゴ」など文字で表された概念を認識する。高度な人工知能を実現するためには、このような( ア )によるアプローチで、環境との相互作用を行う必要があるという考え方がある。
身体性に関する知識を問う問題です。
人工知能を実現するには、身体性が重要であるという考え方があります。人間は、文字などの記号で表された概念を、五感や経験などを通じて認識します。身体性に着目したアプローチでは、人工知能にも人間と同じように環境との相互作用を行う身体が必要であると考えます(A)。
感覚性、本能性、五感性という用語は一般的ではありません(B、C、D)。
代表的なエキスパートシステムであるマイシンに関する知識を問う問題です。
マイシンは、血液中のバクテリアの診断支援を行うエキスパートシステムです(C)。
その他の選択肢は不適切です(A、B、D)。
なお、未知の有機化合物を特定するエキスパートシステムとしては、DENDRALがあげられます(D)。
線形回帰に関連するキーワードを問う問題です。
線形回帰は、特徴量と教師データの直線的な数値関係をモデル化する手法であり、回帰タスクに用いられます(B)。一方、ロジスティック回帰は、線形回帰を応用した手法であり、主に分類タスクを解くために用いられます(A)。
ラッソ回帰は、線形回帰にL1正則化を加えた手法です(C)。また、リッジ回帰は、線形回帰にL2正則化を加えた手法です(D)。
( ア )は、次元の増加に伴い、計算量などが指数的に増える現象である。機械学習では、特徴量の数(次元)が非常に多い場合に、( ア )が問題となりうる。( ア )を回避するために、次元削減などが行われる。次元削減を行う教師なし学習の代表的な手法として、( イ )が挙げられる。
次元の呪いの概念や、次元削減の手法について問う問題です。
次元の呪いは、次元の増加に伴い計算量などが指数関数的に増える現象です(ア)。
また、主成分分析(PCA)は、主に次元削減に用いられる教師なし学習手法のひとつです(イ)。主成分分析などを用いることによって、機械学習における特徴量の次元を削減し、次元の呪いを回避することができます。
したがって、(ア)には次元の呪い、(イ)には主成分分析(PCA)が入ります(C)。
オッカムの剃刀は、「ある事柄を説明するためには、必要以上に多くを仮定するべきでない」というモデル構築の指針です。
重回帰分析は、複数の特徴量を用いて行う線形回帰による分析です。
レコメンデーションにおけるコールドスタート問題について問う問題です。
レコメンデーションでは、購買履歴などの情報をもとに推薦を行うため、購入された頻度が少ない商品が推薦の候補に上がらない場合があります。このような問題はコールドスタート問題と呼ばれます(D)。コールドスタート問題は、協調フィルタリングなどの手法で発生することがあります。
ワームエンド問題、コールドエンド問題、ワームスタート問題という用語は、レコメンデーションにおいて一般的ではありません(A、B、C)。
機械学習における汎化誤差の評価方法に関する知識を問う問題です。
汎化誤差は、未知のデータに対するモデルの予測誤差の期待値です。機械学習では、汎化誤差が小さくなるように学習を行うことが重要となります。
テストデータは、モデルの学習やハイパーパラメータの調整等に使わないデータであり、汎化誤差の推定に用いられます(A)。
検証データは、モデルのハイパーパラメータ等を最適化する場合などに用いられるデータであり、汎化誤差の推定に用いるべきではありません(B)。
訓練データは、モデルの学習に用いられるデータであり、汎化誤差の推定に用いるべきではありません(C)。
汎化誤差は、テストデータを用いて推定されることが望ましいです(D)。
過学習を防ぐ具体的な手段について問う問題です。
モデルの複雑さを制限することで、過学習を抑制する効果があります。たとえば、モデルのパラメータに正則化を適用することで、モデルの複雑さを制限することができます。また、線形回帰などの手法を用い、より単純な構造をもつモデルを採用することも効果的です(A、D)。
検証データを用いて学習中の予測精度をモニタリングし、検証データにおける予測精度が改善しなくなった時点で学習を打ち切ることで、過学習を抑制することができます。これを早期終了と呼びます(B)。
過学習を抑制するためには、訓練データの量を増やすことが重要です(C)。
代表的な活性化関数の性質に関する知識を問う問題です。
シグモイド関数は、(0, 1) の値をとる活性化関数である(A)。
tanh関数は、(-1, 1) の値をとる活性化関数である(B)。
ReLUは、[0, ∞) の値をとる活性化関数である(C)。
Leaky ReLUは、0未満の入力に対してもわずかな傾きをもつよう、ReLUを改良した活性化関数です。したがって、Leaky ReLUは (-∞, ∞) の値をとります(D)。
勾配消失問題や勾配爆発問題に関する知識を問う問題です。
勾配消失問題は、出力層における勾配が入力層まで伝わらず、入力層付近のパラメータの更新が滞ってしまう現象である(A)。また、勾配消失問題が発生した場合には学習が進みづらくなるため、訓練誤差、汎化誤差が共に大きくなる傾向があります。したがって、勾配消失問題の発生時には過学習が問題になるわけではありません(C)。
一方、勾配爆発問題は、学習の途中で勾配が大きくなりすぎることによって、安定的に学習を進められなくなってしまう現象である(B、D)。
ノーフリーランチ定理に関する知識を問う問題です。
ノーフリーランチ定理は、あらゆる問題で優れた性能をもつアルゴリズムは理論上存在しないということを示す定理です。たとえば、ある機械学習モデルが特定の問題に対して優れた性能を示したとしても、別の問題で同様に優れた性能を発揮できるとは限りません(C)。
オッカムの定理、マハラノビスの定理、フィルタバブル定理という定理は一般的ではありません(A、B、D)。
バッチ正規化に関する知識を問う問題です。
バッチ正規化は、ニューラルネットワークのある層への入力に対して正規化を行う手法のひとつです。バッチ正規化では、ミニバッチ内のすべてのデータを用いて、チャンネルごとに正規化を行います(B)。
選択肢Aのような正規化の手法は一般的ではありません。Cはレイヤー正規化に関する記述です。Dはインスタンス正規化に関する記述です。
LSTMに採用されているCECに関する知識を問う問題です。
CECは、LSTMに採用されている機構であり、長期的な情報を蓄えておくためのものである(B)。
BPTTは、RNNにおいて、時間軸に沿って過去に遡りながら誤差を伝播させることを指す用語である(A)。
GRUは、LSTMのゲート機構を簡略化したネットワークである(C)。
BERTは、Transformerのエンコーダの構造をもとにした自然言語処理のためのネットワークである(D)。
( ア )は、エンコーダとデコーダで構成されるニューラルネットワークのアーキテクチャである。( ア )を用いることで、特徴量の次元削減などを行うことができる。
オートエンコーダに関する知識を問う問題です。
オートエンコーダは、エンコーダとデコーダで構成されるニューラルネットワークのアーキテクチャである。オートエンコーダでは、教師データに入力データと同じものを用い、隠れ層の次元を入力層の次元よりも小さくすることで、次元削減などを行うことができる(A)。
オートデコーダ、エンコードネットワーク、デコードネットワークという用語は一般的ではありません(B、C、D)。
代表的なセグメンテーションタスクの概要について問う問題です。
セマンティックセグメンテーションは、画像中のすべての画素に対して、そのクラスを識別するタスクです。同じクラスに属する物体は区別しないため、物体ごとにIDを付与することはありません(A)。
パノプティックセグメンテーションは、画像中のすべての画素に対して、そのクラスを識別し、物体ごとにIDを付与するタスクである(B)。
インスタンスセグメンテーションは、画像中のすべての物体に対して、そのクラスを識別し、物体ごとにIDを付与するタスクである。画像中の背景は識別しないため、すべての画素に対してクラスの識別を行うわけではありません(D)。
クラスセグメンテーションというタスクは一般的ではありません(C)。
word2vecの学習に用いられるネットワークについて問う問題です。
word2vecでは、単語の分散表現を獲得するネットワークとして、skip-gramとCBOWが提案されています。skip-gramは、文章中のある単語に対して、その周辺の単語を予測するネットワークである(A)。また、CBOWは、文章中の周囲の単語から対象の単語を予測するネットワークである(B)。
選択肢C、Dは、それぞれBERTの事前学習に用いられるNSP(Next Sentence Prediction)、MLM(Masked Language Model)に関する記述です。
(ア)Rainbowは、DQN (Deep Q-Network) の派生手法など、7つの手法を組み合わせたものである
(イ)Rainbowは、残差強化学習を行う手法である
(ウ)Rainbowは、Atari2600をプレイすることができる
(エ)Rainbowは、複数のエージェントを用意し、それらの相互作用を加味しながら学習を行う
深層強化学習の一手法であるRainbowに関する知識を問う問題です。
Rainbowは、ダブルDQN、ノイジーネットワーク、デュエリングネットワークなど、7つの手法を組み合わせたものである(ア)。
残差強化学習は、ロボット制御などにおいて、既存の制御手法と強化学習を組み合わせた学習手法です。Rainbowは残差強化学習を行う手法ではありません(イ)。
Atari2600は、強化学習の性能評価のベンチマークとして広く用いられているゲームである。Rainbowは、Atari2600をプレイすることができる(ウ)。
複数のエージェントを用意し、それらの相互作用を加味しながら学習を行うことをマルチエージェント強化学習と呼びます。Rainbowは、マルチエージェント強化学習を行う手法ではありません(エ)。
したがって、(ア)と(ウ)が適切な組み合わせです(C)。
敵対的生成ネットワーク(GAN)の派生ネットワークに関する知識を問う問題です。
DCGANは、GANで用いられるネットワークにCNNを用いたものである(A)。
Pix2PixやCycleGANは、GANのネットワーク構造を活用し、画像の変換を行う生成ネットワークである(B、D)。
sim2realは、強化学習において、コンピュータ上のシミュレータで学習したモデルを実世界へ適用することを指す用語である(C)。
( ア )は、CRISP-DMを拡張したフレームワークとして、2021年に提案された。( ア )では、AIを活用したプロジェクトにおいて特有な運用時のモニタリングなどが加味されている。
CRISP-MLに関する知識を問う問題です。
CRISP-DMは、AIに限らず、データ分析を活用したプロジェクトを推進するための標準的なフレームワークです。また、CRISP-MLは、AIを活用する場合に特有な運用時のモニタリングなどを加味し、CRISP-DMを拡張したフレームワークである(D)。
CRISP-IT、CRISP-WM、CRISP-AIというフレームワークは、一般的ではありません(A、B、C)。
( ア )関数は、気温や湿度といった連続的な確率変数の確率分布を表現する関数の総称である。( ア )関数を用いることで、確率変数が、ある範囲内の値をとる確率を求めることができる。
連続型分布の基礎的な知識を問う問題です。
確率密度関数は、連続的な確率変数の確率分布を表現する関数である。確率密度関数を用いることで、確率変数が一定の範囲内の値をとる確率を求めることができる(A)。
情報量関数、正規分布関数という用語は一般的ではありません(B、C)。
累積分布関数は、確率変数がある値x以下の値をとる確率を表す関数である(D)。
著作権法とデータ活用の関連について問う問題です。
著作権法第三十条の四では、情報解析の用に供する場合には、著作権者の許可なく著作物を利用可能であると定めている(C)。
著作権法第三十条の四では、情報解析の用に供する場合の著作物の利用について、営利、非営利といった目的に制限は設けていません(A、B、D)。
代理変数に関する知識を問う問題です。
代理変数は、センシティブ情報との相関が高いことなどにより、センシティブ情報を代替しうるデータである(A、B)。
代理変数は、特定の個人を識別できるかどうかに関連するものではありません(C、D)。
第一次AIブームにおいて解くことのできた問題について問う問題です。
第一次AIブームでは、迷路や簡単なゲームを解くコンピュータが開発され、当時のコンピュータが解くことができた問題はトイ・プロブレムと呼ばれました(C)。
フレーム問題は、ある問題を解く際に、人工知能に対処させるべき事柄を決めることは難しいという問題である(A)。
シンボルグラウンディング問題は、コンピュータはある記号を実世界における意味と結び付けることは難しいという問題である(B)。
中国語の部屋は、強いAIが実現不可能であるという主張を示すために提案された思考実験である(D)。
主に1970年代〜1980年代にかけて研究された( ア )は、ある専門知識に関するデータである知識ベースを用いて構築される。ただし、知識ベースを構築するのは一般に容易ではなく、専門家から知識をうまく引き出すための知的な( イ )に関する研究が行われた。
第二次AIブームに関連するキーワードを問う問題です。
エキスパートシステムは、ある専門知識に関するデータ(知識ベース)を用いて推論を行うプログラムである(ア)。
知識ベースを構築するのは、少なくとも当時の技術では容易ではありませんでした。人間の専門家の知識は多くの場合、経験的、暗黙的なものであり、これらを本人から引き出すためには、うまくヒアリングを行う必要があります。そこで、知識ベースを構築するために知的なインタビューシステムを開発する研究が行われました(イ)。
したがって、(ア)にはエキスパートシステム、(イ)にはインタビューシステムが入ります(D)。
ビッグデータに関する知識を問う問題です。
今日ではインターネットが広く普及し、大量のデータが日々生成され、蓄積されています。インターネットの成長とともに蓄積された大量のデータはビッグデータと呼ばれ、機械学習を始めとした研究領域で活用されています(C)。
表形式で表せるようなデータを構造化データ、画像や文章といった構造化データでないデータを非構造化データなどと呼びます。ただし、これらは蓄積された大量のデータを総称する用語ではありません(A、B)。
ラージデータという用語は一般的ではありません(D)。
( ア )は、自己回帰モデルを拡張した手法である。( ア )は、複数の時系列データを入力として受け取り、時系列予測を行うことができる。
ベクトル自己回帰モデル(VAR)について問う問題です。
自己回帰モデル(AR)やVARは、時系列データに関する回帰タスクを扱う手法です。 ARは単一の時系列データを扱うことができ、VARは複数の時系列データを扱うことができます(D)。
VAE(変分オートエンコーダ)は、画像生成などを行う生成ネットワークです(A)。
VGGは、画像認識の競技会であるILSVRCで2014年に高い評価を受けた畳み込みニューラルネットワークです(B)。
OCRは、手書き文字や印刷された文字を自動で読み取り、テキストデータに変換する技術です(C)。
トピックモデルに関する知識を問う問題です。
トピックモデルは、クラスタリングを行う教師なし学習の手法です(C、D)。
k-meansでは1つのデータを単一のクラスタに割り当てますが、トピックモデルでは1つのデータを複数のクラスタに割り当てることができます(A、B)。
コンテンツベースフィルタリングに関する知識を問う問題です。
コンテンツベースフィルタリングは、レコメンデーションに用いられる手法のひとつです(B)。 コンテンツベースフィルタリングでは、商品情報に関する特徴量を利用し、類似する商品を推薦します。 その他の選択肢の記述は不適切です。
分類タスクに用いられる代表的な評価指標について問う問題です。
AUCは、ROC曲線のグラフの下部の面積で表される評価指標であり、分類タスクに用いられます(A)。
再現率やF値は、混同行列から算出される評価指標であり、分類タスクに用いられます(C、D)。
RMSEは、予測値と正解値の誤差の二乗和を平均し、平方根を取ったものであり、回帰タスクに用いられる代表的な評価指標です(B)。
過学習や未学習が発生する原因について問う問題です。
訓練データの量に対してモデルのパラメータ数が少ない場合、モデルが教師データを十分に説明できず、未学習が発生しやすくなります(A)。
訓練データの量に対して特徴量の数が多すぎる場合には、モデルが訓練データに過度に適合し、過学習が発生しやすくなります(B)。
機械学習では、学習データをできる限り多く収集することが重要となります。 訓練データの量が少ない場合、過学習が発生しやすくなります(C)。
学習時に正則化を行うと、過学習が発生しにくくなります(D)。
シグモイド関数と勾配消失問題の関係について問う問題です。
誤差逆伝播法では、出力層で計算した誤差を、微分の計算によって出力層から入力層にかけて伝播させます。 このとき、入力層付近まで誤差がうまく伝わらないことがあります。 これを勾配消失問題と呼びます。 シグモイド関数は微分の最大値が小さいことから、勾配消失問題が発生しやすいことで知られています(A)。
勾配爆発問題は、学習の途中で勾配が大きくなりすぎることによって、安定的に学習を進められなくなってしまう現象です。 活性化関数にシグモイド関数を選択しても、勾配爆発問題が発生しやすくなることはありません(B)。
信用割当問題は、各ニューロンが出力を改善するために、予測結果からどのようにフィードバックを受ければよいかという問題です。 活性化関数にシグモイド関数を選択することと、信用割当問題とは無関係です(C)。
信用消失問題という用語は一般的ではありません(D)。
ニューラルネットワークにおいて、信用割当問題とは「各ニューロンが出力を改善するために、予測結果からどのようにフィードバックを受ければよいか」という問題である。( ア )は、出力層から勾配を順にフィードバックすることで、ニューラルネットワークにおける信用割当問題を解決していると考えることができる。
信用割当問題の概要や、誤差逆伝播法との関わりについて問う問題です。
誤差逆伝播法は、出力層から勾配(誤差)を順に伝えることで、各ニューロンに予測結果をフィードバックします。 このことは、ニューラルネットワークにおける信用割当問題を、誤差逆伝播法が解決していると考えることができます(B)。
方策勾配法は、強化学習における方策を学習する手法です(A)。
k-meansは、階層なしクラスタリングの一手法です(C)。
モンテカルロ法は、ボードゲームにおいて仮想的なプレイヤーを通じてプレイアウトを繰り返し、盤面の評価を行う手法です(D)。
ニューラルネットワークにおける代表的な正規化の手法について問う問題です。
グループ正規化は、チャンネルをいくつかのグループに分割し、グループ内のチャンネルを用いてデータごとに正規化を行う手法です(A)。
インスタンス正規化は、チャンネルごと、データごとに正規化を行う手法です(C)。
レイヤー正規化は、ある層のすべてのチャンネルを用いて、ミニバッチ内のデータごとに正規化を行う手法です(D)。
エポック正規化という手法は一般的ではありません(B)。
GRUの構造に関する知識を問う問題です。
GRUは、LSTMのゲート機構を簡略化したネットワークです。 GRUのゲート機構は、リセットゲート、更新ゲートによって構成されます(C、D)。
GRUは、Attentionや畳み込み層を導入したネットワークではありません(A、B)。
積層オートエンコーダに関する知識を問う問題です。
積層オートエンコーダは、ニューラルネットワークの事前学習に用いられる手法です。 積層オートエンコーダでは、入力層から逐次的に層を重ね、それぞれの層を順にオートエンコーダの仕組みを用いて学習することで、深いネットワークを構築します(C)。
通常のオートエンコーダは次元削減に用いられますが、積層オートエンコーダは主に事前学習を行うための手法です(A)。
積層オートエンコーダは、階層ありクラスタリングやネットワークの構造探索には用いられません(B、D)。 なお、選択肢DはNASに関する記述です。
WideResNetに関する知識を問う問題です。
WideResNetは、ResNetを改良したCNNです。 ResNetの層を減らし、代わりに畳み込みのチャンネル数を増やすことで高速かつ高精度なネットワークを実現しました(A、C)。
WideResNetは、ResNetにおける畳み込みのフィルタの縦横サイズや、プーリングの窓を大きくしたネットワークではありません(B、D)。
インスタンスセグメンテーションに用いられるネットワークについて問う問題です。
Mask R-CNNは、物体検出タスクとセグメンテーションタスクを同時に解くことで、インスタンスセグメンテーションを行うネットワークです(D)。
R-CNN、Fast R-CNN、Faster R-CNNは物体検出に用いられるネットワークであり、インスタンスセグメンテーションには用いられません(A、B、C)。
( ア )は、エンコーダ、デコーダと呼ばれる2つのリカレントニューラルネットワーク (RNN) で構成されるネットワークである。( ア )では、入力と出力の長さが( イ )を扱うことができ、たとえば( ウ )のようなタスクを解くことができる。
自然言語処理における具体的なタスクについて問う問題です。
Seq2Seq (Sequence-to-Sequence) は、エンコーダ、デコーダと呼ばれる2つのRNNで構成されるネットワークであり、文書要約や機械翻訳のような、入力と出力の長さが異なりうるタスクを扱うことができます。 したがって、(ア)にはSeq2Seq、(イ)には異なりうるタスク、(ウ)には文書要約が入ります(A)。
LSTMは、ゲート機構をもつRNNであり、エンコーダ、デコーダからなる構造はもっていません。
情報検索は、既えられたクエリ(単語など)をもとに、類似するデータを抽出するタスクです。
マルチモーダルタスクを解くネットワークについて問う問題です。
Flamingoはディープマインドによって開発されたネットワークであり、Visual Question AnsweringやOptical Character Recognition、Image Captioningなどを行うことができます(A、B、C)。
Visual Question Answering (VQA) は、画像と画像に関する質問文を入力として受け取り、それらの内容をもとに回答を生成するタスクです。
Optical Character Recognition (OCR) は、入力された画像に写っている文字を認識し、テキストとして出力するタスクです。
Image Captioningは、入力された画像に対し、その画像を説明する文章を生成するタスクです。
Text-to-Imageは、入力された文章をもとに、その内容を反映した画像を生成するタスクです。 Flamingoは、画像を生成することはできません(D)。
代表的な確率分布に関する知識を問う問題です。
2つのいずれかの事象(成功か失敗)のみが一定の確率で起こる試行をベルヌーイ試行と呼びます。 1回のベルヌーイ試行の結果に対応する確率変数Xが従う確率分布をベルヌーイ分布と呼びます(A)。
ポアソン分布は、ある確率で起こる事象が一定の時間内に起きる回数Xを考えたとき、Xが従う確率分布です(C)。
正規分布は、期待値μと分散σをもつ連続的な確率変数Xが従う釣り鐘型の確率分布です(D)。
二項分布は、ベルヌーイ試行を複数回繰り返したとき、その時点での成功回数が従う確率分布です(B)。
AI開発における成果物と知的財産権との関連を問う問題です。
特許法では、プログラム(電子計算機に対する指令であって、発明の結果を得ることができるように組み合わされたもの)やそれに準ずるものを発明の対象として認めており、学習用プログラムはその新規性や進歩性によって発明として認められる場合があります。 一方、学習用データセットに関しては、情報の単なる提示に該当するとされ、一般に発明とは認められません(A、B)。 学習用データセットは、情報の選択または体系的な構成によって創作性を有する場合は著作物として認められます。 また、学習用のプログラムについても、プログラムそのものが著作物として認められる場合があります(C、D)。
学習済みモデルを用いて予測を行う際、その予測値が入力データにおける人種や性別といった特定の属性に対して偏ってしまうことがある。このようなバイアスを( ア )バイアスと呼ぶ。
アルゴリズムバイアスに関する知識を問う問題です。
機械学習モデルなどを含むアルゴリズムが、入力データにおける特定の属性に対して偏った結果を出力してしまうことを、アルゴリズムバイアスと呼びます(B)。 サンプリングバイアスは、データの収集方法が適切でないことなどによって生じた、データの偏りを指す用語です(D)。 プライバシーバイアス、センシティブバイアスという用語は一般的ではありません(A、C)。
シンギュラリティに関する知識を問う問題です。
人工知能が自身よりも賢い人工知能を作ることができるようになった時点で、さらに高い知能をもつ存在を作り続けるようになり、人間の想像力が及ばない超越的な知性が誕生するという仮説があります。 これをシンギュラリティと呼びます(D)。
知識獲得のボトルネックは、コンピュータが知識を獲得することの難しさを表した用語です(A)。
オープンイノベーションは、技術やアイデアといった自組織の資源を外部組織と積極的に共有し、イノベーションをより効率的に生み出すためのアプローチです(B)。
強いAIは、人間と同様に心や自意識をもつAIを指す用語です(C)。
エキスパートシステムに関する理解を問う問題です。
エキスパートシステムは、ある専門分野の知識(知識ベース)を用いて推論を行う構造をもち、その分野の専門家のように振る舞うことのできるプログラムです(A、C)。 代表的なエキスパートシステムとして、血液中のバクテリアの診断支援を行うマイシンがあげられます(D)。
エキスパートシステムは、第二次AIブームにおける主な研究対象として知られています(B)。
機械学習は、第( ア )次AIブームにおける主要な研究対象のひとつである。機械学習によって、大量のデータからパターンを自動的に抽出し、予測や分類を行うことができる。たとえば、メールの内容からそのメールが不適切かどうかを判定する( イ )フィルタや、ユーザーの購買履歴などにもとづいて商品などを推薦する( ウ )エンジンに、機械学習を応用することができる。
機械学習の概要や、代表的な応用例について問う問題です。
機械学習は、第三次AIブームにおける主要な研究対象のひとつです(ア)。 機械学習を用いることによって、大量のデータからパターンを自動的に抽出し、予測や分類を行うことができます。
機械学習はたとえば、スパムフィルタやレコメンデーションエンジンといったシステムに応用可能です。 スパムフィルタは、メールの内容からそのメールが不適切かどうかを判定するものです(イ)。 また、レコメンデーションエンジンは、ユーザーの過去の購買履歴などから、そのユーザーが将来購入する確率の高い商品などを予測し、推薦するシステムです(ウ)。 どちらの例でも、過去に蓄積した大量のデータを、機械学習によって処理することができます。
したがって、(ア)には三、(イ)にはスパム、(ウ)にはレコメンデーションが入ります(D)。
特徴量に対する具体的な前処理の手法について問う問題です。
各特徴量の取り得る値の範囲を揃える前処理として、標準化や正規化があげられます。
標準化は、特徴量の平均が0、標準偏差が1となるように変換する手法です(B)。
一方、正規化は、特徴量を最小値0、最大値1の範囲に変換する手法です(C)。
強化学習における基本的な概念のうち、割引率について問う問題です。
強化学習では、累積報酬を求める際に、割引率と呼ばれるハイパーパラメータを導入することがあります。
割引率を時刻に応じて乗じることで、将来得られる報酬よりも、すぐに得られる報酬の方がより価値が高いことを行動評価に組み入れることができます(C)。
ROC曲線とAUCに関する知識を問う問題です。
ROC曲線は、モデルの予測値を陰性、陽性に分ける閾値を0~1に変化させたとき、モデルの予測性能がどのように変化するかを描いた曲線です。
この曲線の外部の面積はAUCと呼ばれ、分類タスクにおける評価指標として用いられます(B)。
AIC(赤池情報量基準)は、モデルの複雑さと予測性能のトレードオフを考慮した評価指標です(A)。
MAEやMSEは、回帰タスクに用いられる評価指標です(C、D)。
活性化関数のひとつであるReLUに関する知識を問う問題です。
ReLUは、入力が負のときに0、正のときに恒等写像となる関数です(C、D)。
よって、入力が0以上の領域ではさまざまな値をとります(A、B)。
確率的勾配降下法(SGD)の概要について問う問題です。
確率的勾配降下法は、訓練データからランダムに抽出した一部のデータを用いて勾配を推定し、パラメータの更新を繰り返す手法です(C)。
ニューラルネットワークにおける学習時には、一般的にすべてのパラメータを一度に更新します。
また、ハイパーパラメータや誤差関数は、通常は学習中には固定されます(A、B、D)。
( ア )は、窓を移動させながら、その窓内の平均値や最大値を出力することで、ある層への入力データから特徴を取り出す処理である。
プーリングに関する知識を問う問題です。
プーリングは、窓を移動させながら、その窓内の平均値や最大値を出力することで、ある層への入力データの特徴を取り出す処理です。
窓内で平均値を出力する場合は平均値プーリング、最大値を出力する場合は最大値プーリングと呼びます(D)。
畳み込みは、フィルタをある層への入力データに対して順に重ね合わせ、対応する入力データの値とフィルタの値をかけ合わせて総和を取る処理です(A)。
ドロップアウトは、ニューラルネットワークの訓練時に、ランダムにニューロンを除外するテクニックです(B)。
パディングは、画像データなどの周囲を0などの定数で補完するテクニックです(C)。
さまざまなRNNに関する基礎的な知識を問う問題です。
双方向RNNは、過去から未来の方向だけでなく、未来から過去の方向についても考慮して出力を行うことができるRNNです(A)。
Seq2Seqは、エンコーダ、デコーダと呼ばれる2つのRNNで構成されるネットワークであり、入力と出力の長さが異なるタスクを扱うことができます(B)。
エルマンネットワークは、シンプルな構造をもつ初期のRNNであり、1990年に発表されたものです(D)。
ゲート機構とCEC (Constant Error Carousel) によって構成されるRNNは、LSTMです(C)。
変分オートエンコーダ(VAE)に関する知識を問う問題です。
VAEは、オートエンコーダを活用した生成ネットワークの一種であり、主に画像生成に用いられます。
エンコーダが入力データを確率分布上で表現し、デコーダがその確率分布からサンプリングした潜在変数を元に入力データを復元するように学習を行います(D)。
その他の選択肢は不適切です(A、B、C)。
( ア )は、2017年に提案された畳み込みニューラルネットワーク (CNN) である。( ア )は、ニューラルネットワークの構造を探索する技術を活用した結果得られたネットワークである。
NASNetに関する知識を問う問題です。
ニューラルネットワークの構造を探索すること、およびそのための技術をNAS(Neural Architecture Search)と呼びます。
NASの技術を用いて構造探索を行うことで得られたネットワークとして、2017年にNASNetが提案されました(B)。
ResNetは、2015年に提案されたネットワークです(A)。
GoogLeNetは、2014年に提案されたネットワークです(C)。
DenseNetは、2016年に提案されたネットワークです(D)。
各セグメンテーションタスクに用いられるネットワークについて問う問題です。
PSPNet、U-Net、SegNetは、セマンティックセグメンテーションに用いられるネットワークです(A、B、D)。
Mask R-CNNは、インスタンスセグメンテーションに用いられるネットワークです(C)。
RLHFやChatGPTに関する知識を問う問題です。
ChatGPTは、オープンAIが開発した対話型の文章生成AIです。
ChatGPTの学習には、RLHFという強化学習を用いた手法が使われています。
RLHFは、人間のユーザーが好む回答がどのようなものであるかをネットワークにフィードバックすることで、望ましい回答を生成できるようにする手法です(A)。
BERTは、自然言語処理に用いられる事前学習モデルであり、そのまま文章生成に用いることはできません。
また、事前学習においてRLHFを用いた学習は通常行われません(B)。
NeRFは、与えられた画像に対し、ほかの視点から見た画像を生成することができる画像生成の技術です(C)。
CycleGANは、画像変換を行うネットワークのひとつです(D)。
強化学習におけるさまざまな手法に関する理解を問う問題です。
オフライン強化学習は、環境との相互作用を必要とせず、固定のデータセットをエージェントに与えて学習を行う手法です(A)。
残差強化学習は、ロボット制御などにおける、既存の制御手法と強化学習を組み合わせた手法です(B)。
マルチエージェント強化学習は、複数のエージェントを用いて、それらの相互作用を加味しながら学習を行う手法です(C)。
選択肢Dは、方策勾配法に関連する記述であり、不適切です。
なお、強化学習において、入力データから状態を表現する特徴量を抽出する過程そのものが学習によって得られるとき、これを状態表現学習と呼びます。
NeRFに関する知識を問う問題です。
NeRFは、ニューラルネットワークを活用した画像生成技術であり、ある物体が写った画像に対し、ほかの視点から見た物体の画像を生成することができます(C)。
選択肢A、B、Dは不適切です。
インターネットを通じたAIシステムの提供に関連するキーワードを問う問題です。
クラウドは、インターネットを通じて、コンピュータの計算リソースなどを必要な量、必要な時間だけ利用できるコンピュータ環境です(D)。
Web APIは、インターネットを介してシステム間でデータの受け渡しを行う仕組みです(A)。
IoTは、あらゆるものがインターネットに繋がり、情報のやりとりを行うという概念です(B)。
エッジは、AIを利用する現場に配置する機器などを指す用語です(C)。
データリーケージを考慮した特徴量の作成方法について問う問題です。
データリーケージは、実際に予測を行うときには利用できないデータが訓練データに混入する現象です。
データリーケージが発生すると、モデルの評価時に得られた性能が運用時に再現できない場合があります。
本問の設定では、ある日付の売上を予測するときに利用できる来店者数の実績データは、その1日前までのデータです。
よって、ある売上データに対し、その日付の前日までの来店者数データを用いた場合は、データリーケージは発生しません(A)。
一方、ある売上データに対し、その日付以降の来店者数データを用いた場合は、データリーケージが発生します(B、C、D)。
特許法における職務発明に関する知識を問う問題です。
職務発明とは、企業などの使用者等における従業者等の職務に属する発明のことです。
職務発明における発明者である従業員の権利を適切に保護するため、特許法では職務発明制度と呼ばれる特則が設けられています(B)。
特許法において、企業発明、従業発明、従属発明という用語は定義されていません(A、C、D)。
( ア )は、学習データに不適切なデータを混入させ、モデルに誤った学習をさせる攻撃である。また、( イ ) Attackは、入力データに細工を施し、学習済みモデルの推論結果を操作する攻撃である。
AIを標的とした攻撃手法に関する知識を問う問題です。
データ汚染は、学習データに不適切なデータを混入させ、モデルに誤った学習をさせる攻撃です(ア)。
また、学習済みモデルの予測を意図的に誤らせる目的で作られた入力データをAdversarial Exampleと呼び、それらを利用した攻撃を総称してAdversarial Attackと呼びます(イ)。
したがって、(ア)にはデータ汚染が、(イ)にはAdversarialが入ります(C)。
モデル汚染は、攻撃者が細工をした事前学習済みモデルを配布して利用させることで、モデルの出力を操作したり、悪意のあるプログラムを実行させたりする攻撃です。
また、AdaBoundは、勾配降下法の一手法です。
強いAIに関連する中国語の部屋について問う問題です。
ジョン・サールは、強いAIは実現不可能であるという自らの立場を示すために、中国語の部屋と呼ばれる思考実験を提案しました(A)。
ある部屋に、英語しかわからない人が、中国語の質問に完璧に答えられるマニュアルを持って閉じ込められているとします。
この人は中国語を理解していませんが、このマニュアルを使うことで、部屋の外の人と文字による中国語でのコミュニケーションを取ることができます。
したがって、部屋の外の人は、部屋の中の人が中国語を理解していると誤って判断するでしょう。
この思考実験は、チューリングテストに置き換えて考えることができます。
すなわち、たとえチューリングテストに合格しても、本当にそのコンピュータに知能があるかはわからないということです。
ハノイの塔は、大きさの違う円盤をあるポールから別のポールに大小関係を保ったまま移動させるパズルです(B)。
チューリングテストは、コンピュータが人工知能かどうかを判定するためのテストです(C)。
トイ・プロブレムは、第一次AIブームにおいて解くことのできた迷路や簡単なゲームなどの問題を指す用語です(D)。
意味ネットワークにおける関係に関する理解を問う問題です。
part-ofの関係は、「一部である」という関係、すなわち属性を表します。
「彼は水泳部の一員である」、「手は人間の一部である」といった関係はpart-ofの関係です(A、B)。
is-aの関係は、「~である」という継承関係を表します。
「動物は生物である」という関係はis-aの関係です(D)。
「足が4本ある」という関係は、「足」は「4本」という概念ではないため、is-aの関係ではありません(C)。
( ア )は、視覚野の神経細胞を模した初期の画像認識ネットワークであり、1979年に福島邦彦によって提案された。
初期の画像認識ネットワークであるネオコグニトロンについて問う問題です。
ネオコグニトロンは、初期の画像認識ネットワークのひとつであり、畳み込みニューラルネットワークよりも前に考案されたものです。
ネオコグニトロンは、人間の視覚野の神経細胞を模倣した多層構造をもち、画像のパターンを認識することができます(A)。
意味ネットワークは、概念を1つのノードとし、それらを意味関係で関連づけたネットワークです(B)。
ワトソンは、IBMが開発したQuestion-Answering (質問応答) の技術をもつ人工知能です(C)。
東ロボくんは、東京大学に合格できる能力の獲得を目指して開発された人工知能です(D)。
(ア)バギング
(イ)パディング
(ウ)ブースティング
(エ)プーリング
アンサンブル学習を行う方法を問う問題です。
アンサンブル学習を行う代表的な方法として、バギングとブースティングがあげられます。
バギングは、複数の弱学習器の出力から多数決や平均によって最終的な出力を決定する方法です。
一方、ブースティングは、1つずつ直列に弱学習器を繋いでいき、前の弱学習器における誤差を補うように学習を行う方法です。
よって(ア)(ウ)は適切です(C)。
パディングは、画像データなどの周囲を0などの定数で補完するテクニックです(イ)。
プーリングは、ニューラルネットワークのある層への入力データを領域ごとに平均したり最大値を取ったりする処理です(エ)。
ウォード法に関する知識を問う問題です。
ウォード法は、階層ありクラスタリングの一手法です。
ウォード法では、データ間の距離を階層的に表した樹形図(デンドログラム)を生成することができます。
デンドログラムを読み解くことによって、クラスタ同士がどのような関係をもっているかを解釈することができます(D)。
決定木は、特徴量の値に応じて分岐路を作っていき、最終的な予測値を決定する教師あり学習のアルゴリズムです(A)。
探索木は、迷路などをアルゴリズムによって探索する際に用いられる概念であり、分岐や進み方のパターンをツリー構造で表現したものです(B)。
ヒストグラムは、度数分布の階級ごとの度数を棒グラフで可視化したものです(C)。
マルコフ決定過程に関する知識を問う問題です。
強化学習では、「現在の状態から一時刻先の状態に遷移する確率は、現在の状態と取った行動のみに依存する」という仮定を置いて問題を扱うことが多くあります。
このような考え方をマルコフ決定過程と呼びます(A)。
選択肢B、C、Dは不適切です。
| 予測 | |||
|---|---|---|---|
| 陽性 (Positive) | 陰性 (Negative) | ||
| 正解 | 陽性 | (ア) | (イ) |
| 陰性 | (ウ) | (エ) |
混同行列に関する知識を問う問題です。
分類タスクにおいて、予測値と正解ラベルの組み合わせを以下のようにまとめたものを混同行列と呼びます。
| 予測 | |||
|---|---|---|---|
| 陽性 (Positive) | 陰性 (Negative) | ||
| 正解 | 陽性 | 真陽性 (True Positive : TP) | 偽陰性 (False Negative : FN) |
| 陰性 | 偽陽性 (False Positive : FP) | 真陰性 (True Negative : TN) |
したがって、(ア)には真陽性、(イ)には偽陰性、(ウ)には偽陽性、(エ)には真陰性が入ります(D)。
k-分割交差検証の概要や利点について問う問題です。
k-分割交差検証は、データをk個のブロックに分割して、学習および評価を繰り返す手法です(A、B)。
k-分割交差検証では、分割したすべてのデータを評価に利用できるため、汎化性能を正確に見積もりやすいという特徴があります(D)。
一方で、分割したデータの数だけ学習、評価を行う必要があるため、計算コストは高くなります(C)。
出力層に用いられる活性化関数であるソフトマックス関数について問う問題です。
ソフトマックス関数は、多クラス分類タスクを解くネットワークの出力層に用いられる活性化関数です(A、B)。
ソフトマックス関数によって、予測値を各クラスが属する確率に変換することができます。
ソフトマックス関数は、主に入力層や隠れ層で用いられる活性化関数ではありません(C、D)。
誤差関数における鞍点に関する知識を問う問題です。
鞍点は、ある次元では極小となるものの、ほかの次元では極大となるような点です(D)。
選択肢Aは局所最適解に関する記述であり、Bは大域最適解に関する記述です。
学習時に鞍点や局所最適解に陥ると、その周辺で学習が停滞し、パラメータがほとんど更新されなくなってしまうことがあります。
また、Cの記述に関する点の一般的な名称はありません。
( ア )パラメータは、機械学習モデルの構造などを決定する定数であり、モデルのパラメータを最適化する前に設定するものである。
ハイパーパラメータに関する知識を問う問題です。
ハイパーパラメータは、機械学習モデルの構造などを決定する定数であり、モデルのパラメータを最適化する前に設定するものです。
たとえば、ニューラルネットワークにおける学習率や層の数などはハイパーパラメータです(A)。
グリッドパラメータ、ランダムパラメータ、ノーマルパラメータという用語は一般的ではありません(B、C、D)。
畳み込み層は、同じノード数間の全結合層と比較して( ア )であり、特徴量の次元が大きい画像データを効率的に扱うことができる。また、画像データを扱うネットワークでは、画像に写る物体の位置移動に頑健であることが好ましい。畳み込みニューラルネットワーク(CNN)では、畳み込み層とプーリング層を組み合わせることで、ネットワークへの入力データに対する位置( イ )を獲得できる。
畳み込み層やプーリング層の特徴について問う問題です。
畳み込み層では、ある層への入力データ全体に対して同じフィルタを用いて畳み込み演算を行います。
このため、同じノード数間の全結合層と比較するとニューロン同士の結合が疎であり、効率的に学習を行うことができます(ア)。
また、畳み込み層やプーリング層による処理は位置のズレに頑健であり、これらを組み合わせることで、ネットワークへの入力データに対する位置不変性を獲得できます(イ)。
したがって、(ア)には疎結合が、(イ)には不変性が入ります(B)。
スキップ結合が導入されている代表的なネットワークについて問う問題です。
スキップ結合は、2015年に発表されたResNetに導入されたことで知られています。
ResNetの登場以降、DenseNetやTransformerなどさまざまなネットワークでスキップ結合が用いられています(B、C、D)。
GoogLeNetはResNet以前(2014年)に発表されたネットワークであり、スキップ結合は用いられていません(A)。
RNNの学習に用いられる教師強制について問う問題です。
教師強制は、前の時刻の出力に対応する教師データを現在時刻の入力として用いる手法です(B)。
教師代入、教師抽出、教師反舞という用語は、RNNの学習に関するものとして一般的ではありません(A、C、D)。
画像データにおけるデータ拡張の手法について問う問題です。
画像の一部画素値を0またはランダムな値にする手法は、Random ErasingやCutoutと呼ばれます(A)。
なお、Random Cropは、画像を一部切り取り、サイズの違うデータを生成する手法です(B)。
Random Flipは、画像をランダムに反転する手法です(C)。
Random Rotationは、画像をランダムに回転する手法です(D)。
Mixupは、2つの画像を合成する手法です(D)。
ILSVRC (ImageNet Large Scale Visual Recognition Challenge) で優勝した歴代のネットワークについて問う問題です。
AlexNetは、ILSVRC 2012で優勝したネットワークです(D)。
GoogLeNetは、ILSVRC 2014で優勝したネットワークです(B)。
EfficientNetは、2019年にグーグルの研究者によって発表されたネットワークです。
ILSVRC 2015で優勝したネットワークではありません。
ILSVRC 2015で優勝したネットワークは、ResNetです(A)。
SENetは、ILSVRC 2017で優勝したネットワークです(C)。
FCNの構造に関する知識を問う問題です。
FCNは、セマンティックセグメンテーションに用いられるネットワークです。
畳み込み層とプーリング層のみから構成され、全結合層をもたないのが特徴です(A、B、C)。
FCNに限らず、一般的なニューラルネットワークは出力層をもちます(D)。
( ア )は、自然言語処理に用いられる事前学習モデルであり、2018年にオープンAIによって発表された。( ア )は、Transformerのデコーダの構造を取り入れたネットワークである。
GPTに関する知識を問う問題です。
GPTは、Transformerのデコーダの構造を取り入れた事前学習モデルであり、2018年にOpenAIによって発表されました(B)。
ELMoは、単語の分散表現を獲得できるネットワークです。
Transformerのデコーダの構造はもっていません(A)。
BERTは、Transformerのエンコーダの構造を取り入れた事前学習モデルです(C)。
GLUEは、複数の自然言語処理タスクにおける、機械学習モデルの精度評価を行うためのデータセットです(D)。
AlphaStarに関する知識を問う問題です。
AlphaStarは、深層強化学習を活用したゲームAIであり、スタークラフト2というゲームをプレイすることができます。
スタークラフト2は、RTS (Real-Time Strategy) と呼ばれるジャンルに属する対戦型ゲームです(B)。
Atari2600は、強化学習の性能評価のベンチマークとして広く用いられているゲームですが、AlphaStarはAtari2600をプレイするゲームAIではありません(A)。
AlphaStarは、囲碁や将棋をプレイするゲームAIではありません(C、D)。
囲碁をプレイすることができるゲームAIとしては、AlphaGoがあげられます。
転移学習に関する知識を問う問題です。
事前学習済みモデルを異なるタスクに転用すること、またはそのために行う学習のことを、転移学習と呼びます(D)。
能動学習は、正解ラベルが付いていない大量のデータに対し、適応的にラベルを付与するデータを選択する手法です(A)。
教師強制は、RNNなどの学習において、前の時刻の出力に対応する教師データを現在時刻の入力として用いる手法です(B)。
マルチタスク学習は、1つのネットワークで複数のタスクを同時に扱う学習の総称です(C)。
SHAPに関する知識を問う問題です。
SHAPは、学習済みモデルにおいて、ある特徴量が予測値に与えた影響の度合いを求める手法です(B)。
GLUEは、複数の自然言語処理タスクにおける機械学習モデルの精度評価を行うためのデータセットです(A)。
YOLOは、物体検出に用いられるネットワークです(C)。
PCA (主成分分析) は、次元削減などに用いられる教師なし学習の手法です(D)。
Web APIに関する知識を問う問題です。
Web APIは、インターネットを介してシステム間でデータの受け渡しを行う代表的な仕組みです(C)。
選択肢Aはセマンティックウェブに関する記述、Bはクラウドに関する記述、DはIoT (Internet of Things) に関する記述です。
コーパスに関する知識を問う問題です。
コーパスは、自然言語に関するデータを大規模に収集し、コンピュータで処理しやすいように整理されたデータセットの総称です(D)。
ビッグデータは、インターネットの成長とともに蓄積された大量のデータを指す用語です。
また、オープンデータセットは、インターネット上で公開されたデータセットです。
ビッグデータやオープンデータセットは、自然言語以外のデータを含む概念です(A、B)。
ImageNetは、およそ1400万枚の画像からなるオープンデータセットです(C)。
2点間の距離や類似度を測る代表的な指標に関する知識を問う問題です。
ユークリッド距離は、ユークリッド空間における2点を結ぶ線分の長さで定義される距離です(C)。 ユークリッド距離の計算では、2点間の対応する各成分の差を二乗して足し合わせ、その平方根を求めます(A)。 選択肢Bは、マハラノビス距離に関する記述であり、不適切です。 ユークリッド距離の計算には2つのベクトルのなす角度は用いられません(D)。 なお、2つのベクトルのなす角度を用いて、コサイン類似度と呼ばれる2点間の類似度を表す指標を計算することができます。
不正競争防止法における営業秘密の要件を問う問題です。
不正競争防止法においてデータなどの情報を営業秘密として保護するには、その情報が非公知性、有用性、秘密管理性の3つの要件を満たす必要があります(A、B、D)。 新規性は、特許法において発明が特許を受けるための要件のひとつです(C)。
民法における準委任契約や請負契約に関する知識を問う問題です。
準委任契約は、検証や開発といった役務の提供を目的とする契約です。 一方、請負契約は、具体的な仕事の完成を目的とした契約です(A、B)。 準委任契約は、他人の物を保管するという役務の提供のみを目的とした契約ではありません(C)。 準委任契約は、情報の取扱いを規定することを目的とした契約ではありません。 なお、秘密情報の取扱いは、NDA(秘密保持契約)などによって規定することができます(D)。
データ窃取に関する知識を問う問題です。
データ窃取は、学習済みモデルにデータを入力し、その出力を観察してモデルの学習データを推測する攻撃です(C)。 データ窃取は、学習済みモデルへの入力データの不正取得とは関連しません(A、B)。 選択肢Dは、モデル窃取に関する記述です。
人工知能(AI : Artificial Intelligence)は、1956年にアメリカで開催された( ア )会議において、ジョン・マッカーシーによって初めて提言されたといわれている。
人工知能研究の歴史やダートマス会議について問う問題です。
人工知能 (AI : Artificial Intelligence) は、1956年にアメリカで開催されたダートマス会議において、ジョン・マッカーシーによって初めて提言されたといわれています。 ダートマス会議以降、人工知能は学術的な研究分野として注目されるようになっていったとされています(D)。 アートマス会議、ゲートマス会議、ノートマス会議は、1956年に開催された人工知能に関連する会議として一般的ではありません(A、B、C)。
ILSVRC (ImageNet Large Scale Visual Recognition Challenge) に関する知識を問う問題です。
ILSVRCは、画像認識の精度を競い合う競技会です(A、B、C)。 2012年には、ディープラーニングを活用したチームが圧倒的な勝利を収めたことで、ディープラーニングへの注目度が飛躍的に高まりました。 チューリングテストによる評価を競う競技会はローブナーコンテストです(D)。
代表的な教師なし学習の手法に関する知識を問う問題です。
クラスタリングは、大量のデータから類似するデータを集めてグルーピングする手法であり、階層なしクラスタリングと階層ありクラスタリングに分類されます。 階層なしクラスタリングの代表的な手法として、k-meansがあげられます(A)。 また、階層ありクラスタリングの代表的な手法として、ウォード法があげられます(B)。 与えられたデータを何らかの方法で圧縮し、その次元数を減らすことを次元削減と呼びます。 次元削減を行う教師なし学習の代表的な手法として、主成分分析 (PCA) や特異値分解 (SVD) などがあげられます(C、D)。
$\epsilon$-greedy方策は、多腕バンディット問題を解く際などに用いられるアルゴリズムである。$\epsilon$-greedy方策では、一定の確率で( ア )と( イ )のどちらかを行う。( ア )では、すべてのスロットマシンからランダムに選択を行い、( イ )では、過去の試行結果から最も当たりの多かったスロットマシンを選択する。
ε-greedy方策に関する知識を問う問題です。
ε-greedy方策は、あるハイパーパラメータε (0以上1以下の値) を用いて、確率εで探索を行い、確率1-εで活用を行うアルゴリズムです。 探索とは、未知の情報以外の情報を獲得するために行う行動であり、活用とは、既知の情報を利用して最大の報酬を得る行動です。 多腕バンディット問題においては、探索ではすべてのスロットマシンからランダムに選択を行います(ア)。 また、活用では、過去の試行結果から最も当たりの多かったスロットマシンを選択します(イ)。 したがって、(ア)には探索、(イ)には活用が入ります(A)。
分類タスクにおいて用いられる基本的な用語について問う問題です。
真陽性は、モデルの予測値と正解ラベルが共に陽性であるようなデータです(A)。
偽陽性は、モデルが陽性と判定したものの、正解ラベルが陰性であるようなデータです(B)。
真陰性は、モデルの予測値と正解ラベルが共に陰性であるようなデータです(C)。
偽陰性は、モデルが陰性と判定したものの、正解ラベルが陽性であるようなデータです(D)。
( ア )は、「ある事柄を説明するためには、必要以上に多くを仮定するべきでない」という機械学習モデルの構築の指針である。( ア )に従い、モデルの複雑さを考慮して評価を行う際には、( イ )が用いられることがある。( イ )は、モデルの予測精度と複雑さのトレードオフを考慮した評価指標である。
モデルの複雑さを考慮した評価に関する知識を問う問題です。
オッカムの剃刀は、「ある事柄を説明するためには、必要以上に多くを仮定するべきでない」というモデル構築の指針です(ア)。 また、赤池情報量基準 (AIC) は、モデルの予測精度と複雑さのトレードオフを考慮した評価指標です(イ)。 AICを用いて予測精度と複雑さのバランスが良いモデルを選択することで、オッカムの剃刀に従ったモデル構築を行うことができます。 したがって、(ア)にはオッカムの剃刀、(イ)には赤池情報量基準 (AIC) が入ります(B)。
タスクに応じた適切な誤差関数を問う問題です。
Triplet LossやContrastive Lossは、主に深層距離学習に用いられる誤差関数です。 Contrastive Lossは2つのデータを用いて計算され、Triplet Lossは3つのデータを用いて計算されます(A、B)。 MSEやMAEは、主に回帰タスクに用いられる誤差関数です。 MSEは、回帰タスクにおいて最も広く用いられている誤差関数のひとつです。 MAEは、外れ値の影響を受けにくい特徴があります(C、D)。
ニューラルネットワークにおける学習率について問う問題です。
学習率は、勾配降下法において、求めた勾配に従ってどの程度パラメータを更新するかを決定するハイパーパラメータです(A)。 選択肢Bはエポックに関する記述です。 Cの記述におけるハイパーパラメータは、正則化係数などと呼ばれます。 Dは、バッチサイズに関する記述です。
ハイパーパラメータの探索手法に関する知識を問う問題です。
代表的なハイパーパラメータの探索手法として、グリッドサーチとランダムサーチがあげられます。 グリッドサーチは、ハイパーパラメータの候補領域のすべての組み合わせを網羅的に探索する手法です(B)。 ランダムサーチは、ハイパーパラメータの候補領域からランダムに選択して探索する手法です(D)。 モーメントサーチ、ミニバッチサーチは、ハイパーパラメータを探索する手法として一般的ではありません(A、C)。
スキップ結合に関する知識を問う問題です。
スキップ結合は、ネットワーク内の層間を飛び越えた結合を行うことで、出力層で計算された誤差を入力層側まで伝播しやすくする手法です(B)。 回帰結合は、時間ステップに応じた再帰的な結合を指す用語です(A)。 疎結合や全結合は、層を飛び越えた結合を指す用語ではありません(C、D)。
Attentionに関する知識を問う問題です。
Attentionは、各時刻の状態に重み付けを行い、どのデータに注目すればよいかを計算する機構です(B)。 Adamは、勾配降下法の手法のひとつです(A)。 Atrous Convolution (Dilated Convolution) は、フィルタを適用する際に、フィルタの各要素に間隔を設ける畳み込みの手法です(C)。 CECは、LSTMで用いられる長期的な情報を蓄えておくための機構です(D)。
SENet (Squeeze-and-Excitation Networks) に関する知識を問う問題です。
SENetは、畳み込み層が出力した特徴マップにAttentionを適用することで、予測性能を改善したCNNです(B)。 SENetには、回帰結合層、Atrous Convolution (Dilated Convolution)、Depthwise Separable Convolutionは導入されていません(A、C、D)。 なお、Atrous Convolutionを導入したネットワークとしてはDeepLabが、Depthwise Separable Convolutionを導入したネットワークとしてはMobileNetがあげられます。
n-gramに関する知識を問う問題です。
n-gramは、隣り合うn個の単語や文字をひとまとまりとして扱う概念です。 たとえば、n=2のとき、"I have a bag" という文を "I have", "have a", "a bag" というように分解することができます(B)。 skip-gramは、word2vecにおける学習に用いられるネットワークです(A)。 形態素は、文章や単語を分解していった際の、意味のある最小単位を指す用語です(C)。 分散表現は、単語の多次元ベクトルによる表現を指す用語です(D)。
BERTに関する知識を問う問題です。
BERTは、自然言語処理に用いられる事前学習モデルです。 BERTでは、MLM、NSPと呼ばれる2つの自己教師あり学習のタスクを解くことによって事前学習を行います(B)。 Swin TransformerやVision Transformerは画像認識に用いられるネットワークであり、MLM、NSPによる事前学習は行われません(A、D)。 word2vecは、単語の分散表現を獲得する手法であり、その学習はskip-gramとCBOWという2つのネットワークによって行われます。 MLM、NSPによる事前学習は行われません(C)。
( ア )は、多人数対戦型ゲームであるDota 2において、2018年に当時の世界トップレベルのプレイヤーで構成されたチームに勝利したゲームAIである。( ア )では、マルチエージェント強化学習の手法が用いられている。
OpenAI Fiveに関する知識を問う問題です。
OpenAI Fiveは、多人数対戦型ゲームであるDota2において、2018年に当時の世界トップレベルのプレイヤーで構成されたチームに勝利したゲームAIです。 OpenAI Fiveはマルチエージェント強化学習の手法を用いており、PPO (Proximal Policy Optimization) と呼ばれる強化学習のアルゴリズムを用いて学習を行います(A、C)。 AlphaStarは、スタークラフト2というゲームをプレイすることができるゲームAIです(B)。 Agent57はDQNベースの手法であり、ゲームAIとしてAtari2600をプレイすることができます(D)。
転移学習とは、事前学習済みモデルを異なるタスクに転用することを指す言葉である。転移学習において、転移先のタスクにおける学習データを全く用いないことを( ア )と呼ぶ。また、ごく少量の学習データだけを用い、新たなタスクを解くネットワークを学習することを( イ )と呼ぶ。
転移学習に関連するキーワードを問う問題です。
転移学習において、転移先のタスクにおける学習データを全く用いないことを、Zero-shot Learningと呼びます(ア)。 また、ごく少量の学習データだけを用い、新たなタスクを解くネットワークを学習することを、Few-shot Learningと呼びます(イ)。 したがって、(ア)にはZero-shot Learning、(イ)にはFew-shot Learningが入ります(B)。
アジャイル開発は、設計からリリースまでのサイクルを繰り返しながら開発を行う手法です(C)。一方、ウォーターフォール開発は、設計から実装、テスト、リリースまでの計画をはじめにすべて策定し、計画に沿って開発を行う手法です(C)。エッジ開発、アンサンブル開発という用語は一般的ではありません(B、D)。
[第7章]
統計的仮説検定の流れに関する知識を問う問題です。
統計的仮説検定では、帰無仮説と、それを否定した対立仮説を用いて仮説の検証を行います。帰無仮説のもとではほとんど起こらない現象が起きていることをデータから示すことで、帰無仮説を棄却し、対立仮説が正しいことを主張することができます(D)。選択肢A、B、Cは不適切です。
[第8章]
組織間での共有を前提としたデータは、( ア )の要件をすべて満たさないため、( ア )としては保護することができない。( イ )は、不正競争防止法においてこのようなデータを保護するための概念である。
不正競争防止法における限定提供データについて問う問題です。
限定提供データは、組織間で共有することを前提としたデータのように、営業秘密として保護できない情報を不正競争防止法のもとで保護するための概念です。このようなデータは非公知性または秘密管理性を満たさないため、営業秘密として保護することはできませんが(ア)、一定の条件を満たすことで、限定提供データとして保護することができます(イ)。したがって、(ア)には営業秘密が、(イ)には限定提供データが入ります(B)。
[第9章]
AI開発における透明性や公平性を確保するために留意すべき事項を問う問題です。
代理変数は、センシティブ情報との相関が高いことなどにより、センシティブ情報を代替しうるデータです。センシティブ情報やその代理変数を特徴量から除外することは、公平な学習済みモデルを得ることに繋がります(A)。学習データの来歴をまとめて公表することは、透明性を確保するうえで重要です(B)。学習済みモデルの入出力の履歴を管理し、追跡可能性を確保することで、公平性に問題があるような出力を監視し、検証を行うことができます(C)。AI開発者の国籍や性別、経歴といった属性が可能な限り多様になるようなチームを構成することで、公平性を確保しやすくなることが期待されます(D)。
[第10章]
テキストデータにおけるデータ拡張の手法について問う問題です。
Noisingは、単語の入れ替え、削除、挿入、置換などをランダムに行うことでデータを増やす手法です(D)。Paraphrasingは、単語を別の類似した単語で置き換える手法です(A)。CutMixは、CutoutとMixupを組み合わせて生成を行う画像データの拡張手法です(B)。Samplingは、テキストデータの分布を推定し、新しいデータのサンプリングを行う手法です(C)。
[第5章]
音声データにおけるA-D変換の手法に関する知識を問う問題です。
パルス符号変調 (PCM) は、標本化、量子化、符号化の3つのステップからなるA-D変換の手法です(A)。高速フーリエ変換 (FFT) は、音声などの波形データの周波数ごとの強さ(振幅)を分析するアルゴリズムです(B)。フォルマントは、周波数スペクトルにおけるスペクトル包絡のピークを指す用語です(C)。CTCは、空文字の利用や同じ音素の集約といった工夫により、RNNで音声認識タスクを扱えるようにした手法です(D)。
[第6章]
代表的なモデル圧縮の手法について問う問題です。
モデル圧縮は、機械学習モデルの精度をできるだけ保ちながらモデルのサイズを小さくする技術です。代表的な手法として、知識蒸留、プルーニング、量子化などがあげられます。プルーニングは、一度学習を行ったモデルのパラメータの一部を削除することで、パラメータ数を削減する手法です(A)。プルーニングは、一部の特徴量を削除する手法ではありません(D)。また、モデルに入力する特徴量を削減することを、特徴選択と呼びます。選択肢Bは知識蒸留に関する記述であり、不適切です。Cは量子化に関する記述であり、不適切です。
[第6章]
サンプリングバイアスに関する知識を問う問題です。
データの収集方法が適切でないことなどにより、収集したデータがある範囲に偏ることを、サンプリングバイアスと呼びます(D)。なお、学習済みモデルの予測がある範囲に偏ることを、アルゴリズムバイアスと呼びます(A)。新しく観測されるデータの分布が、訓練データの分布とずれることをドメインシフトと呼びます(B)。学習済みモデルのパラメータの偏りを指す一般的な用語はありません(C)。
[第7章]
SaaSに関する知識を問う問題です。
SaaSは、インターネット経由でアプリケーション機能を提供するサービスの形態です(D)。IaaSは、仮想化したハードウェアそのものを提供するサービスの形態です(A)。PaaSは、アプリケーションの運用や維持管理を行うためのプラットフォームを提供するサービスの形態です(B)。FaaSは、アプリケーションの構築や起動に関するインフラを管理することなく、イベントに応じてソースコードを実行できるようにするサービスです(C)。
[第9章]
ディープフェイクに関する知識を問う問題です。
ディープフェイクは、AIを用いて動画の人物の顔を別人のものに変更し、要人の発言を捏造するような技術です(D)。エコーチェンバーは、ソーシャルメディアを利用する際、自分と似た興味関心をもつユーザーをフォローする結果、自分が発信した意見に対して似た意見が返ってきやすくなる現象です(A)。フィルタバブルは、アルゴリズムがユーザーの行動履歴を分析または学習し、ユーザーの価値観に沿う情報のみを優先的に表示することで、ユーザーが自身の価値観の中に孤立してしまうような情報環境を指す用語です(B)。スパムフィルタは、メールの内容からそのメールが不適切かどうかを判定するものです(C)。
[第10章]
( ア )は、学習時に適用するデータ拡張手法を決定する戦略であり、2019年にグーグルによって発表された。
RandAugmentに関する知識を問う問題です。
RandAugmentは、学習時に適用するデータ拡張手法を決定する戦略のひとつです。あらかじめデータ拡張を行う手法の候補を決めておき、ミニバッチごとに一定数の手法を無作為に選び、一定の強さで適用します(C)。CutoutやRandom Erasingは、画像の一部の画素値を0またはランダムな値にすることでデータを増やす画像データ拡張手法です(A、B)。RandExpandというデータ拡張の戦略は一般的ではありません(D)。
[第5章]