内閣府が2019年に取りまとめた「人間中心のAI社会原則」*1の基本理念について問う問題です。
人間中心のAI社会原則は、AIの適切で積極的な社会実装を推進するために、各ステークホルダーが留意すべき基本原則を定めたものです。 同原則では、理念として尊重し、実現を追求すべき価値として「人間の尊厳が尊重される社会 (Dignity)」「多様な背景を持つ人々が多様な幸せを追求できる社会 (Diversity & Inclusion)」「持続性ある社会 (Sustainability)」の3つをあげ、基本理念としています(A、B、D)。 なお、DiversityとInclusionは、多様性 (Diversity) を柔軟に包摂 (Inclusion) したうえで新たな価値を創造するという意味合いをもちます。
また、同原則では、「AI-Readyな社会」への変革を推進すべきであると提言しています。 AI-Readyな社会とは、社会全体がAIによる便益を最大限に享受するために必要な変革が行われ、AIの恩恵を享受している、または必要なときに直ちにAIを導入しその恩恵を得られる状態にある「AI活用に対応した社会」を意味します。 ただし、AI-Readyな社会は同原則における基本理念には含まれていません(C)。
試験対策
「人間中心のAI社会原則」における追求すべき価値や原則について理解しておきましょう。参考
「人間中心のAI社会原則」は以下の7原則で構成されます。
(1) 人間中心の原則
(2) 教育・リテラシーの原則
(3) プライバシー確保の原則
(4) セキュリティ確保の原則
(5) 公正競争確保の原則
(6) 公平性、説明責任及び透明性の原則
(7) イノベーションの原則
*1 「人間中心のAI社会原則」 https://www8.cao.go.jp/cstp/aigensoku.pdf
AIガバナンスに関連するリスクベースアプローチ、ハードロー、ソフトローといった概念の理解を問う問題です。
昨今では、社会における適切なAIの在り方をまとめたAI原則や、AI倫理に関するガイドラインなどが国内外で提示されています。 また、AI原則を社会で実現するためのガバナンスについても議論がなされています。 AIガバナンスは、AIの利活用によって生じるリスクと恩恵のバランスをとるための、社会的システムなどの設計や運用を指す概念です。
AIガバナンスの設計にあたっては、AIに関連する新たな規制を設ける必要がありますが、その際に国際的に広く普及しつつある考え方としてリスクベースアプローチがあります。 リスクベースアプローチは、規制の程度をリスクの大きさに対応させるべきとする考え方です(A)。
また、国家などで明確に規定された法律による規制をハードローと呼びます。 一方、私的な取り決めなどによる自主的な規制をソフトローと呼びます。 AIガバナンスの設計にあたっては、AI原則を尊重する組織を支援するソフトローを中心としたアプローチが望ましいと考えられています。 ただし、ハードローとソフトローはいずれも、規制の程度をリスクの大きさに対応させるべきという考え方ではありません(C、D)。
なお、AIガバナンスにおいてデータベースアプローチという用語は一般的に使用されません(B)。
試験対策
AIガバナンスの概要やその設計に関連する考え方を理解しておきましょう。参考
AIガバナンスに関する資料としては、経済産業省が公表している「我が国のAIガバナンスの在り方 ver.1.1」*2などが参考になります。
*2 「我が国のAIガバナンスの在り方 ver.1.1」 https://www.meti.go.jp/shingikai/mono_info_service/ai_shakai_jisso/pdf/20210709_1.pdf
人物が写るカメラ画像を利活用する際に留意すべきプライバシーや個人情報の保護に関する知識を問う問題です。
IoT技術やディープラーニングの発展に伴い、人物に関連する画像や映像などのデータから情報を抽出し、利活用することが一般的に行われるようになっています。 ただし、このようなデータの利活用時には、プライバシーや個人情報の保護に十分留意する必要があります。
経済産業省は、事業者がカメラ画像を利活用する際の法的な留意事項や、プライバシー保護の観点からカメラに写り込み得る生活者と事業者間の相互理解を構築するための配慮事項をまとめ、「カメラ画像利活用ガイドブック」として公表しています*3。
個人情報保護法では、取得した画像データが個人情報にあたらない場合、その利用目的を画像に写る人物に伝える必要はありません。 画像データが個人情報にあたらない場合とは、たとえば、後ろ姿だけが写っているなど、その画像データから個人を特定できない状態のことです(A)。
ただし、カメラ画像を利活用する事業者は、法令を遵守するだけでなく、生活者のプライバシーや肖像権にも配慮し、理解を得ることが重要です。 カメラで取得する画像データが個人情報に該当せず、利用目的の通知が義務ではない場合でも、生活者のプライバシーや肖像権が守られることを説明し、理解を得ることが必要になることがあります。
また、取得した画像データを加工した場合でも、特定の個人を識別できる場合は個人識別符号[第9章 解答1を参照]とみなされ、個人情報に該当します(B)。
一方、個人情報の利用目的を公表しているなど一定の条件を満たす場合は、個人情報を使用してAIの学習を行うことが可能であり、必ずしも匿名加工情報に変換する必要はありません。 ただし、プライバシー保護の観点から、その適切性について慎重に検討する必要があります(C)。
また、学習済みモデルを使用して、カメラからの入力データに対して予測を行う際にも、プライバシーの問題が発生することがあります。 たとえば、カメラに写った人物の年齢を予測する場合には、年齢を予測すること自体がプライバシー侵害にあたらないか慎重に検討する必要があります(D)。
試験対策
人物に関連する画像データを取り扱う際に、プライバシー保護の観点から留意すべき事項を整理しておきましょう。参考
カメラ画像を利活用する際に事業者と生活者とのコミュニケーションや信頼関係が問題となった事例として、独立行政法人 情報通信研究機構(NICT)が実施した実験があげられます。 NICTは2013年11月に、大阪ステーションシティに複数のカメラを設置して人流を把握する実証実験を予定していましたが、プライバシー侵害の懸念があることから、実施を一時延期しました。 この実験は、災害時の安全対策などに活用しようとするもので、個人情報保護などの法的な問題は認められませんでしたが、生活者への説明が十分ではなく、生活者の不安を払拭できていなかったのが問題とされています。
*3 「カメラ画像利活用ガイドブック」 https://www.meti.go.jp/press/2021/03/20220330001/20220330001-1.pdf
( ア )とは、人種や国籍などのように、差別や偏見が生じないように注意して扱うべき情報である。また、( イ )は、( ア )と相関が強いことなどにより、それを代替し得るデータである。( ア )や( イ )を特徴量として使用すると、公平ではない予測を行う学習済みモデルができ上がってしまう場合がある。
機械学習モデルの公平性やセンシティブ情報について問う問題です。
内閣府が公表している「人間中心のAI社会原則」では、「公平性、説明責任及び透明性の原則」が定められており、「AIの設計思想の下において、人々がその人種、性別、国籍、年齢、政治的信念、宗教等の多様なバックグラウンドを理由に不当な差別をされることなく、全ての人々が公平に扱われなければならない」とされています[解答1を参照]。
機械学習では、予測の公平性を確保するために、人種や国籍といった情報の取り扱いに注意する必要があります。 このような情報は、平成21年に公表された「金融分野における個人情報保護に関するガイドライン」において、センシティブ情報(機微情報)と定義されました。 現在は個人情報保護法において要配慮個人情報として再編され、平成29年に公表された同名のガイドラインにおいても再度センシティブ情報(機微情報)として整理されています(ア)。 たとえば、センシティブ情報を特徴量として個人に関する何らかのスコアを予測するモデルを学習すると、そのセンシティブ情報によってその予測スコアの分布に偏りが発生し、公平性に重大な問題が生じる可能性があります。 さらに、直接的にはセンシティブ情報に該当しないデータであっても、センシティブ情報を説明できるような何らかの変数が特徴量に紛れ込むことで、同様に公平性に問題が生じる可能性があります。 このような変数は代理変数と呼ばれ、注意を要します(イ)。
また、匿名加工情報は、特定の個人を識別することができないように加工した個人に関する情報を指す個人情報保護法上の概念です[第9章 解答3を参照]。
なお、潜在変数は、画像生成などに利用される変分オートエンコーダ(VAE)に用いられる概念です[第5章 解答21を参照]。
以上のことから、(ア)にセンシティブ情報、(イ)に代理変数が入ります(A)。
試験対策
機械学習において問題となる公平性の概要や関連するキーワードを覚えておきましょう。参考
センシティブ情報のことをセンシティブ属性と呼ぶ場合もありますので、注意しましょう。
機械学習モデルの公平性に関するキーワードを問う問題です。
機械学習モデルなどを含むアルゴリズムが、特定の属性に対して偏った結果を出力することをアルゴリズムバイアスと呼びます。 アルゴリズムバイアスは、本設問のA社のように、出力に偏りを生じさせる属性がセンシティブ情報[解答4を参照]に関連している場合に、特に問題になります(B)。
本設問の例におけるアルゴリズムバイアスの原因として、職種によっては男性からの応募が多数であったため、男性の採用が好ましいと判断された、といったことがあり得ます。 このように、収集するデータの量が特定の属性に偏ることで、アルゴリズムバイアスが発生することがあります。 このようなデータの偏りはサンプリングバイアスと呼ばれます[第7章 解答14を参照]。
以上のように、サンプリングバイアスの発生はアルゴリズムバイアスの発生を助長しますが、アルゴリズムによる出力の偏りそのものはサンプリングバイアスとは呼ばれません(D)。
なお、アルゴリズムバリアンス、サンプリングバリアンスという言葉は一般的に使用されません(A、C)。
試験対策
アルゴリズムバイアスやサンプリングバイアスといった公平性の問題に関するキーワードを覚えておきましょう。
AIの利活用に関連する設計思想について問う問題です。
AIの利活用時に個人情報などの機密性の高いデータを扱う場合などは、セキュリティ対策について十分に検討する必要があります。 セキュリティ・バイ・デザインは、不正アクセスによる攻撃へのセキュリティ対策を企画・設計の段階から念頭に置く設計思想です(D)。
また、企画・設計の段階からプライバシー侵害の予防を指向するプライバシー・バイ・デザインと呼ばれる設計思想も提唱されています(C)。 なお、プライバシー・オブ・デザインやセキュリティ・オブ・デザインと呼ばれるような設計思想は一般的ではありません(A、B)。
試験対策
AIの利活用に関連する基本的な設計思想を覚えておきましょう。
Adversarial Example(敵対的サンプル)およびAdversarial Attack(敵対的攻撃)に関する知識を問う問題です。
機械学習モデルの予測を意図的に誤らせる目的で作られた入力データを、Adversarial Exampleと呼びます。 また、それらを利用した攻撃を総称してAdversarial Attackと呼びます。 たとえば、画像分類タスクでは、入力となる画像データに人間には知覚できない程度のノイズを付加し、元の画像を入力した場合のモデルの予測と異なる予測結果を出力させることができる場合があります。
このように、Adversarial Exampleによって機械学習モデルの予測を想定しない結果に改変させる攻撃が行われることがあります(C)。
なお、Atrous Example、Attention Example、Annotation Exampleという用語は一般的に使用されません(A、B、D)。
試験対策
Adversarial ExampleおよびAdversarial Attackの概要を理解しておきましょう。
AIを標的にした、またはAIを利用した代表的な攻撃手法について問う問題です。
AIを利活用する際は、セキュリティ上の脅威への対策を十分に検討する必要があります。 AIを標的にした、またはAIを利用した攻撃にはさまざまな種類があり、データ窃取 (Data Theft) やモデル窃取 (Model Theft)、データ汚染 (Data Poisoning)、モデル汚染 (Model Poisoning) などがあげられます。
データ窃取は、学習済みモデルにデータの入力を行い、その出力を観察してモデルの学習データを推測する攻撃です(A)。
また、モデル窃取は、学習済みモデルにデータの入力を行い、その出力を観察してモデルのパラメータを推測する攻撃です(B)。
一方、データ汚染は、学習データに不適切なデータを混入させ、モデルに誤った学習をさせる攻撃です(C)。
また、モデル汚染は、攻撃者が細工をした事前学習済みモデルを配布して利用させることにより、モデルの出力を操作したり、悪意のあるプログラムを実行させたりする攻撃です(D)。
試験対策
AIに関連する代表的な攻撃手法を理解しておきましょう。
AIの利活用における透明性を確保するために考慮すべき事項を問う問題です。
透明性は、AIに関連するさまざまな事項に関する情報開示の度合いを表す概念です。 AIを利活用する際には、利用者や生活者が安心・納得してAIを利用または受容できるように、透明性を確保することが重要になります。
ディープラーニングを活用したAIは、モデルによる判断理由を明確に示すことが難しく、ブラックボックスであるといわれます。 説明可能AI(XAI : eXplainable AI)の技術を利用してAIの予測の根拠を示し、説明可能性を確保することは、透明性を向上させるうえで重要です(A)。 XAIの技術として、SHAP (SHapley Additive exPlanations) やCAM (Class Activation Map) [第6章 解答48を参照]といった手法があります。 SHAPとは、協力ゲーム理論で広く使われているShapley値を用いて、各特徴量が予測値に対してどれだけ貢献しているかを計算することによって、予測を説明する手法です。
AIの利用目的や利用方法、AI倫理に対する指針をまとめた文書をAIポリシーなどと呼びます。 AIポリシーを定めて公表することで、利用者や生活者がAIの利用目的などを把握することができ、透明性の確保につながります(B)。
また、学習データの取得方法や加工方法といったデータの来歴を公表することも、透明性を確保するうえで重要です(C)。 AIを開発する際にある企業から入手した機密情報を、当該企業の許可を得ずに公表することは、適切な行動ではありません(D)。
試験対策
AIを利活用する際に透明性を確保することは重要です。 そのために考慮すべき事項を整理しておきましょう。参考
外部に情報を公開する際には、プライバシー保護の観点などから、学習データそのものは公開すべきではない場合が多くあります。 また、学習データや学習済みモデルは営業秘密などの知的財産として保護され得るもので、通常はこれらの公開までは求められないことが多いでしょう。
インターネットを介した情報収集とAIとの関連についてのキーワードを問う問題です。
近年では、ニュースなどの情報発信サービスで、AIを利用したレコメンデーション[第3章 解答15を参照]によって、パーソナライズされた情報が個々のユーザーに表示されることが当たり前になっています。 そうしたサービスにより情報収集の利便性が高まる一方、AIによる情報提供を無条件で受け入れることで、人間の自律性が失われるという指摘や、AIによる情報選択が民主主義を侵害する可能性があるといった指摘があります。
フィルターバブルとは、アルゴリズムがユーザーの行動履歴を分析または学習し、ユーザーの価値観に沿う情報のみを優先的に表示することで、ユーザーが自身の価値観の中に孤立してしまうような情報環境のことです。 このような環境では、ユーザー自身の価値観に沿わない情報が遮断されるため、他の多様な考え方や価値観の存在に気づけなくなる傾向があります。 その結果、個人の価値観が偏向したり排他的になることを助長し、社会を分断する危険性があることが指摘されています(B)。
このほかにも、情報発信の場でフィルターバブルと同様に社会の分断を助長し得る現象として、エコーチェンバーが知られています。 エコーチェンバーとは、ソーシャルメディアなどを利用する際に、ユーザーが意見を発信する際、自分と同じような思考や興味関心を持つ人からの意見が集まる傾向にある状況を、閉鎖空間で音が反響する物理現象に例えたものです(A)。
また他方では、AIを悪用した情報操作やフェイクニュースの拡散なども、民主主義に対する脅威として認識されています。 ディープフェイクは、AIを用いて動画の人物の顔を別人に変更し、要人の発言を捏造するような技術です。 たとえば、ディープフェイクによって政治家の発言を捏造し、拡散するといった悪用方法が考えられますが、一方でディープフェイクを見破るAIの研究も進んでいます(C)。
なお、レコメンデーションは、パーソナライズされた情報を提供するために使用される技術です(D)[第3章 解答15を参照]。
試験対策
個人が情報収集を行う際の、AIの影響に関連するキーワードを覚えておきましょう。
ディープラーニングでは、GPU(Graphics Processing Unit)や( ア )といった計算リソースを大量に使用して学習を行うことが多く、その電力消費も膨大であることから、気候変動など環境への影響が懸念されている。エマらは2020年の研究で、行列演算に特化した( ア )用に設計されたネットワークにおいて、GPUより( ア )を使用した方が計算コストが小さくなる場合があることを示し、電力消費を削減するひとつの手段として、AIの学習に特化したハードウェアの開発を支持した。
AIの利活用と環境への影響について問う問題です。
近年のディープラーニングの研究では、大規模言語モデルをはじめとした巨大なネットワークが数多く提案されています。 このようなネットワークは、学習時や推論時にGPU(Graphics Processing Unit)[第4章 解答7を参照]やTPU(Tensor Processing Unit)[第4章 解答8を参照]といった計算リソースを大量に使用するため、その電力消費も膨大であり、気候変動など環境への影響が懸念されています。
このような状況に警鐘を鳴らす研究もいくつか発表されています。 エマらは2020年に発表した論文*4において、いくつかのネットワークと演算処理装置を使用して、学習時の計算コストやエネルギー消費量を比較しました。 その結果、行列処理演算に特化したTPU用に設計したいくつかのネットワークでは、GPUよりも低コストで学習できることを示しました。 エマらはこの結果を受け、電力消費を削減するひとつの手段として、AIの学習に特化したハードウェアの開発を支持しています。
なお、CPUはコンピュータ全般の作業を順に処理するための演算処理装置であり、行列演算には特化していません(A)。 また、QPU(Quantum Processing Unit)は、量子コンピュータで使用される演算処理装置です(C)。 なお、API(Application Programming Interface)は、システム間で情報の受け渡しを行うためのインターフェースです(D)[第7章 解答5を参照]。
以上のことから、(ア)にはTPUが入ります(B)。
試験対策
環境保護とAIについて、どのようなことが議論されているかを理解しておきましょう。
【参考文献】
*4 Strubell, Emma, Ananya Ganesh, and Andrew McCallum. "Energy and policy considerations for modern deep learning research." Proceedings of the AAAI conference on artificial intelligence. Vol. 34. No. 09. 2020.
AIの利活用が雇用に及ぼす影響についての理解を問う問題です。
昨今のAIの普及に伴い、人間とAIがどのように協働すべきかが議論されています。 AIが代替し得る仕事やタスクは多岐にわたります。 たとえば、自動車の自動運転などのように、その場の状況を判断しながら複雑なタスクを遂行するAIについても、着実に開発が進んでいます(A)。
また、AIによって仕事を代替することで労働力不足の解消が期待され、AIを普及させるための仕事や、AIを活用した新たな仕事の雇用が創出されることも考えられます(B)。
一方、AIに代替された仕事では、従来はその仕事を行うのに必要なスキルを持つ人材が失われることが考えられます。 このことは、何らかの不具合によってAIが利用できなくなった場合などに問題になり得ます。 たとえば、自動運転では、AIによって完全に自動化された場合でも人間の免許制度は必要か、などといったことが議論されています(C)。
さらに、AIが予期せぬ挙動をしないということは、少なくとも現在の技術では完全に保証することができません。 したがって、多くの場合にはAIの出力や挙動をモニタリングしたり、最終的な意思決定に人間が関与するなどの運用が必要になります(D)。
試験対策
AIが雇用に与える影響や、人間とAIとの協働について議論されている内容を整理しておきましょう。
故人に関連するデータを学習させ、その行動を模倣するAIが開発された例が存在する。このような技術においては、故人に関連するさまざまな権利に配慮すべきである。たとえば、( ア )権は、氏名や肖像の知名度を第三者に勝手に利用されない権利であり、死亡後にも存続する可能性がある。
故人に関連するデータを活用する際に法的および倫理的に配慮すべき事項について問う問題です。
近年では、故人に関連するデータを学習し、その行動を模倣したり、新しい作品を生み出すAIが開発されるようになっています。 たとえば、2019年には「AI美空ひばり」が新曲を歌ったことが話題となりました。
故人に関連するデータを扱う際には、法的および倫理的な観点の双方から配慮が必要になる場合があります。 たとえば、パブリシティ権は、氏名や肖像の知名度を第三者に勝手に利用されない権利のことであり、死後にも存続する可能性があるとされています。 故人に関連するAIを開発する際には、故人のパブリシティ権やプライバシーの侵害がないことや、死者に対する一般的な宗教的崇敬感情などにも配慮が必要です。
なお、パウシティ権、ダイバーシティ権、ユニバーシティ権という用語は一般的に使用されません(A、C、D)。
以上のことから、(ア)にはパブリシティが入ります(B)。
試験対策
故人に関連するデータを扱う際には、法的および倫理的な観点からの配慮が必要となることを理解しておきましょう。
昨今では、AIの軍事利用に関する研究が進んでおり、それらの技術の規制などが検討されている。( ア )では、自律型致死兵器システムに関する人間の関与の在り方や規制の在り方などが国際的に議論されている。
AIの軍事利用に関する知識を問う問題です。
昨今では、AIの軍事利用に関連する研究が進んでいます。 たとえば、敵の行動や戦況の変化を認識できるAIを自律型無人機に搭載することで、情報収集や偵察といった任務が人命のリスクを負うことなく実施できるようになります。
一方で、自律型無人機の研究開発は、自律型致死兵器システム(LAWS : Lethal Autonomous Weapons Systems)の開発に発展していく可能性が指摘されています*5。 LAWSは明確に定義されてはいませんが、「人間の関与なしに自律的に攻撃目標を設定することができ、致死性を有する完全自律型兵器」を指すとされています(C)。 LAWSを含む特定の兵器は、特定通常兵器使用禁止制限条約(CCW : Convention on Certain Conventional Weapons)の枠組みで、その規制の在り方などが国際的に議論されています(A)。
なお、倫理的・法的・社会的な課題(ELSI : Ethical, Legal and Social Implications)は、倫理的・法的・社会的影響を一体のものとして検討しようという試みです(B)。 また、一般データ保護規則(GDPR : General Data Protection Regulation)は、欧州連合(EU : European Union)域内の個人データやプライバシーの保護に関する規則です(D)[第9章 解答4を参照]。
試験対策
AIの軍事利用に関連する問題を整理しておきましょう。
【参考文献】
*5 「令和3年版防衛白書」 https://www.mod.go.jp/j/publication/wp/wp2021/html/n130101000.html
AIに関連する倫理的な課題を解決するための方策や組織体制について問う問題です。
倫理的なAIを開発、運用するためには、公平性[解答4を参照]や透明性[解答9を参照]、プライバシー保護といった観点のほかにも、追跡可能性や監査可能性、ダイバーシティ(多様性)、インクルージョン(包摂性)などへの配慮が必要になります。
AIに倫理上の問題がないか調査するために行うアセスメントを、AI倫理アセスメントなどと呼びます。 AI倫理アセスメントを外部に委託することは、公平性などの観点で多様な視点を取り入れることにつながります(A)。
また、AIの予測について、同じ入力に対して同じ出力が得られることを再現性と呼びます。 AIの出力に再現性をもたせ、入出力の履歴を適切に管理することは、追跡可能性や監査可能性を担保することにつながります(B)。 このほか、AIに対する監査やモニタリングを行うことは、AIが倫理的に不適切な挙動を起こすことを防止するうえで重要です。
さらに、AI開発者自身がダイバーシティやインクルージョンについて理解することは重要です。 また、AI開発者の国籍や性別、経歴といった属性が可能な限り多様になるようなチームを構成することで、公平性を確保しやすくなることが期待されます(C)。 これらに加えて、センシティブ情報やその代理変数[解答4を参照]が特徴量に含まれていないか検証することは、公平性を確保するうえで重要です(D)。
試験対策
倫理的なAIを開発、運用するために必要となる考え方や方策を整理しておきましょう。参考
G検定では追跡可能性のことをトレーサビリティと表現する可能性があるため、注意しましょう。