英国のAI白書(2023年3月29日公表)の概要 



  

英国政府は、2023年3月29日、「AI規制におけるイノベーション促進型アプローチ(A pro-innovation approach to AI regulation) 」[1]という文書(「本文書」)を公表しました。その概要をご紹介します。

 

本文書において、英国は、

  • 規制の不透明性を縮減することによって責任あるイノベーションを促進し、成長と繁栄を推進すること
  • リスクに対応し、基本的価値を保護することによって、AIに対する人々の信頼(public trust)を向上させること
  • 英国がAIにおいて世界で先駆的な地位に立つこと

を目標とし、AI規制の枠組みとして、イノベーション促進型の(pro-innovation)、法規制に縛られない(non-statutory)、柔軟で(flexible)、比例的で(proportionate)、信頼ができ(trustworthy)、順応性があり(adaptable)、明確で(clear)、協力的(collaborative)、かつ段階的な(iterative)アプローチをとるとし、以下の5つの原則を掲げています。

 

  • 安全性、セキュリティ、堅牢性(Safety, security and robustness)
    AIシステムは、そのライフサイクルを通じて、堅牢、セキュア、かつ安全でなければならず、リスクは常に特定、評価、管理されなければならない。
  • 適切な透明性・説明可能性(Appropriate transparency and explainability)
    AIシステムの開発者・実装者は、関係者に対してAIシステムがいつ、どのように、どのような目的で使用されているかの情報を十分に提供し(透明性)、関係者に対して、AIシステムの判断形成過程について十分な説明を提供しなければならない(説明可能性)。
  • 公正さ(Fairness)
    AIシステムは、そのライフサイクルを通じて、個人/法人の法的権利を侵害してはならず、個人を不公正に差別してはならず、不公正な市場結果をもたらしてはならない。
  • 説明責任とガバナンス(Accountability and governance)
    AIシステムの供給と使用について効果的な監視を確保するガバナンス体制が構築されなければならず、AIシステムのライフサイクルを通じて明確な結果に対する説明責任が伴わなければならない。
  • 不服申立て・是正ができること(Contestability and redress)
    AIによる判断や結果が有害であり、又は重大なリスクを伴う場合、それによって影響を受ける者に対して不服を申し立て、是正する機会を提供しなければならない。



ここで、「AI(人口知能)」「AIシステム」「AI技術」の定義としては、機能に着目し、順応性があり(adaptivity)、自律性(autonomy)のある製品・サービス、としています。そして、規制の対象は、技術そのものではなく、AIの使用であるとし、規制のあり方も具体的事情を総合的に考慮する(context-specific)としているのが特徴的で、その方法は産業界からの支持を得ています。

 

また、保証手法(assurance techniques)と技術基準は、本枠組みをサポートするツールとして重要であり、技術基準については多層的なアプローチを採用する、としています。多層的なアプローチとは、部門にかかわらず適用される基準(第1層)、個別具体的な場面におけるAIの特定のリスク(差別や透明性など)に対応する基準(第2層)、ヘルスケアAIの安全性など特定の分野に対応する基準(第3層)を多層的に提供していくというものです。

 

英国は、当面は、既存の法規制のもと、政府機関の連携により、産業界に対して原則の実装を促しつつ、将来的には、原則について何らかの義務化を図る可能性があるが、その際も規制当局に対して広範な裁量権を付与し、具体的な事情に基づいて規制ができるようにしていくと述べています。そして、将来的にはガイダンスを策定し、AIのサンドボックス・テストベッドを整備していく、ということです。

 

この原則ベース(principle-based)の任意規制は英国の産業界から好意的に受け止められているようです。オーストラリアでは、消費者向けIoTについて原則ベースの任意のガイダンスが策定されているところ(「行動規範:消費者向けIoTの安全を図る」(The Code of Practice: Securing the Internet of Things for Consumers)[2])、これに対しては、原則ベースであることによってかえって遵守基準が過度に高くなってしまっている、技術基準による規制の方が製造に落とし込む時にわかりやすい、という批判が出ているのとは対照的です。まだ成熟していない製品(AI)と、ある程度成熟し普及している製品(消費者向けIoT)との望ましい規制の在り方についての違いといったところでしょうか。



ちなみに、ChatGPTでは、本文書の要約は以下のようになりました。

• 「報告書は、イギリス政府がAIに対する規制において、従来の規制に縛られない柔軟で革新的なアプローチを採用すべきであると主張しています。

• AIに対する規制は、その技術や応用の種類によって異なる必要があると考えられています。報告書は、規制の種類を分類し、それぞれに対するアプローチを提案しています。

• AIの利用は、その影響が多岐にわたるため、その規制には複数の政府機関が関与する必要があります。報告書は、政府機関間の連携強化を提唱しています。

• AIの発展には、データへのアクセスが重要であるため、報告書は、データに対する規制を見直す必要があるとしています。

• 最後に、報告書は、AIの開発・利用においては、倫理的な観点が重要であることを強調しています。政府は、AIに関する倫理規定を策定する必要があると主張しています。

 

当たらずとも遠からずといったところですかね。

 

[1] https://assets.publishing.service.gov.uk/government/uploads/system/uploads/attachment_data/file/1146542/a_pro-innovation_approach_to_AI_regulation.pdf

[2] https://www.homeaffairs.gov.au/reports-and-pubs/files/code-of-practice.pdf