問題1
個人情報の種別について、最も適切なものを1つ選べ。
- 仮名加工情報はいかなる手段でも、個人の識別が不可能かつ復元も不可能である。
- 匿名加工情報を他の情報と照らし合わせることで、個人識別が可能になるが、元の状態に復元は不可能である。
- IPアドレスやCookieなどは個人識別符号に該当する。
- 移動履歴や購買履歴も個人関連情報には含まれる。
📝 解答
4
🔍 解説
個人関連情報とは、生存する個人に関する情報であって、個人情報、仮名加工情報及び匿名加工情報のいずれにも該当しないものをいいます。
問題2
AIの学習済みモデルの著作権について、最も不適切なものを1つ選べ。
- 学習済みモデルといっても、その内容は不明確であるので、仮に著作権の対象として学習済みモデルという概念を用いるのであれば、具体的に何を指すのかの定義づけを行うことが望ましい。
- 学習用のコードの著作権者は、職務著作を考えなければ、コードを記述した者になる。
- 推論用のコードの著作権者は、職務著作を考えなければ、コードを作成した者になる。
- 学習の結果得られる学習済みパラメータについては、コンピュータ上で学習の指示を行った者に著作権が成立するのが原則である。
📝 解答
4
🔍 解説
パラメータについては単なる計算結果のため著作権が発生しません。
問題3
経済産業省が公表した「AI・データの利用に関する契約ガイドライン」が推奨する開発方式の各段階に関する説明として、最も不適切なものを1つ選べ。
- 「アセスメント段階」は、ユーザーから一定量のデータを受領し、学習済みモデルの生成可能性があるか否かを事前検証する段階である。
- 「PoC段階」は、基本的にはユーザーが保有している一定量のデータを用いて、学習済みモデルの生成・精度向上作業を行い、事後の開発の可否や妥当性を検証する段階である。
- 「開発段階」は、学習済みモデルを生成する段階である。ベンダーは、ユーザーの期待する精度等の要求を達成する保証をする責任がある。
- 「追加学習段階」は、ベンダーが納品した学習済みモデルについて、追加の学習用データセットを使って学習をする段階である。
📝 解答
3
🔍 解説
AIの精度の保証は、精度がデータに依存するため事前んい予測することができず、難しいです。
問題4
AIにおけるバイアスへの対応として、最も不適切なものを1つ選べ。
- AIにおけるバイアスを排除するためには、対象とするセンシティヴ属性を選定する必要があるが、これについて統計的手法を用いて自動化する手法が実運用のレベルで採用されつつある。
- バイアスを軽減する措置をとった結果、依然として一定のバイアスが残る場合には、その旨を利用者やAIの分析対象者に情報共有することが望ましい。
- バイアスの低減と精度の確保はトレードオフの関係になることがあり、この場合には、適切な均衡点を探ることになる。
- すでに存在するバイアスに基づいた判断をAIが行うことにより、ステレオタイプ化が進み、バイアスが再生産される可能性があることに注意が必要である。
📝 解答
1
🔍 解説
センシティヴな属性の選定は人間の手によらざるを得ません。これを自動化する技術は実現していません。
問題5
AIにおける安全性確保のために取るべき対応策について、最も不適切なものを1つ選べ。
- AIの点検・修理を行うことは重要であるが、一般消費者であるユーザーに、一部にせよこれらの実施を委ねることは認められない。
- AIが想定外の動作を起こした場合でもフェールセーフに設計することで安全性を確保できるようにするべきである。
- 安全性を害する事故が発生した場合に備えて、事前に初動措置などを整理しておくべきである。
- 重大な事故が発生した後には、調査委員会等による原因調査が重要になる。
📝 解答
1
🔍 解説
提供者側で安全性に関する措置を全て行うことはできず、不審な挙動がないか等のある程度の点検は現場のユーザーに任せざるを得ない場合があります。
問題6
AI倫理上の課題に取り組むための手法として、最も不適切なものを1つ選べ。
- 開発中のAIの倫理上の課題を調査する倫理アセスメントは、開発が進むにつれて、再度実施すべき場合がある。
- ステークホルダーの関与が重要であるが、開発当初にステークホルダーの範囲を決定したら、後日変更せず開発の安定を図ることが望ましい。
- AIに対する監査を行いAIが倫理上の課題を引き起こさないかを確認することが考えられるが、どのような監査を行うべきかについては今後の議論が必要である。
- 実運用に供されたAIをモニタリングすることで、問題発生時に迅速に対応できるようになる。
📝 解答
2
🔍 解説
ステークホルダーの範囲は、開発等の進行に伴い変化することがあります。