英国の「AI規制のためのイノベーション促進のアプローチ」報告書

AI規制を議論するときに、欧州のほうが規制が進歩します、という人がいます。が果たして、欧州のAI法のアプローチが妥当なのでしょうか。英国の「AI規制のためのイノベーション促進のアプローチ」の白書(2023年3月)を読んでみたところ、むしろ、欧州のAI法のアプローチは、規制が広範すぎてバランスを失しているのではないかという疑問を感じたので、その報告書の内容をすこし詳細に紹介します。

報告書の構成

同報告書は、大臣序、要約、パート1 序、パート2 現在の規制環境、パート3 イノブーティブで反復的なアプローチ、パート4 実装を支援する信頼できるAiのツール、パート5 地域的アプローチ、パート6 国際的相互流用性、パート7 結論および今後のステップの構成でできています。また、付属文書は、A 規制者による原則の実装、B 関係者約束 C 諮問への回答方法です。

以下、大臣・要約のところでは、興味深いところは、イギリスは、ヨーロッパにおけるAIの先導的な立場を占めているということです。

英国はこの進歩の最前線にあり、AIの研究開発では世界第3位となっている。欧州のAI企業の3分の1が英国にあり、他の欧州諸国の2倍もある。世界をリードする地位は、盛んな研究拠点と、以下のようなパイプラインによるものです

として、大学を卒業する専門知識、イノベーターの創意工夫、そして政府のAIへの投資に対する長期的なコミットメントをあげています。欧州の理念先行型の規制を行って、イノベーションを阻害して、この地位を低下させることがあってはならないというように個人的に 読んでしまいます。

パート1から読んでいきます。

パート1 序

パート1は、人工知能の力と可能性(1.1),AIリスクの管理(1.2)、用語について(1.3)からなります。そこでは、具体的なAIのリスクとして,安全(safety)、セキュリティ、公平性、プライバシーと主体性、人権、社会の幸福と繁栄(societal wellbeing)が含まれるとされています。

バート2 現在の規制環境

現在の規制環境(2.1)では、製品固有の法律(電気・電子機器、医療機器、 玩具など)は、統合型AIを含む一部の製品に適用されていること、また、消費者権利法の適用の可能性も指摘されています(バラ26-28)。

もっとも、規制当局の中には、医療分野における AI・デジタル規制サービスやデジタル規制協力フォーラム(DRCF)のような正式なネットワークを通じて、 AIに対する規制の一貫性を確保するために既に協力しているところもあるが、その他の規制当局は、 AIの専門知識を有する能力やアクセスに限界がある。このため、規制当局間で一貫性のない施行が行われるリスクがあることが指摘されています。法的アプローチとしては、場合によっては、規制当局に対して、この原則を十分に考慮することを義務付ける法的義務を導入することもありうるとされています(29-30)。

パート3 イノベーティブで反復的(iterative)なアプローチ

この部は、規制枠組みの狙い(3.1)、提案されている規制枠組み(3.2)からなりたっています。このアプローチを図にすると、以下のようになります。

3.1 規制枠組みの狙い

規制枠組の狙いでは、リスクに対処しつつ、重要な問題を解決するインセンティブを与えることで、イノベーションを促進することが目的であること(バラ31)、国家AI戦略の目的もそうであること(32)、その詳細は、パリシーペーパー(人工知能庁 2022)で明らかにされているが、

  • 成長と繁栄を促進する
  • リスクに対処し、基本的価値を守ることで、 AIに対する社会の信頼を高める
  • AIの世界的リーダーとしての英国の地位を強化する、という目的

にまとめられています(33)。なお、この枠組の範囲についてと、制限がされていることがコメントされており(34)、パトリックヴァランス卿の提言についても参照する必要があります(35)。(上の図の左上の部分です)

3.2 提案される枠組

すべてのAI技術に適用される煩雑な規則を作る代わりに、我々の枠組みは、技術そのものではなく、 AIの利用に焦点を当てることで、規制措置が文脈と結果に比例することを確実にするという観点から、AI規制の状況に明確性と一貫性をもたらすための新たな枠組みを導入しようというものであることがのべられています(36)

この枠組は、責任あるイノベーションを容易にし、規制の不確実性を減らすために①イノベーション促進的、②比例的、③信頼性、④適合可能である、⑤明確である、⑥協調的である、という特徴を有しています。そして、AIをそのユニークな特徴に基づいた定義 (3.2.1)、状況に応じたアプローチの採用(3.2.2)、AIリスクと機会に対する規制当局の対応の指針となる、分野横断的な原則の提供(3.2.3)、AI規制の枠組みを実現するために規制当局を支援する新たな中央機能を提供し、反復的アプローチの利点を最大化し、枠組みの首尾一貫性を確保する(3.2.4)という四つの重要な要素があるとしています(38)。図の右上の部分です。

3.2.1 AIを定義する

英国の既存の規制当局にそれぞれの「仕立て」られた対応の必要があることから、「適合性」と「自立性」というのを定義の二つの要素としています(39-41)。

AIの「適応性(adaptivity)」は、AIシステムは、一度、あるいは継続的に「訓練」され、人間には容易に識別できないことが多いデータのパターンやつながりを推論することで作動することを意味します。このような訓練を通じて、AIシステムはしばしば、人間のプログラマーが直接想定していない新しい形の推論を実行する能力を身につける。システムの結果の意図や論理を説明することを困難にします。

AIの「自律性」は、人間の明示的な意図や継続的なコントロールなしに意思決定を行うものもあることを指し、これは、結果に対する責任の所在を明確にすることを困難にします。

(高橋コメ)ちなみに、EUのAi法は、議会修正版3条パラ1(1)だと

「人工知能システム」(AIシステム)とは、様々なレベルの自律性をもって動作するように設計され、明示的または暗黙的な目的のために、物理的または仮想的な環境に影響を与える予測、推奨、または決定などの出力を生成することができる機械ベースのシステムをいう;

と定義されています。

また、リスクについては、文脈特異性があり(42)規制当局は、それぞれの専門分野で詳細なリスク分析と執行活動を行うのに最も適した立場にあるので、横断的原則を適用する権限を与えるとしています(43)。

3.2.2 技術ではなく使用を規制する

この枠組は、実際の利用に関するものであって「文脈に特化したもの」とされています(45)。セクターやテクノロジー全体にルールやリスクレベルを割り当てることをしないとしています。その代わりに特定の用途においてAiが生み出しそうな結果に基づいて規制をおこなうとしています(45)。また、セクターやテクノロジー全体にルールやリスクレベルを割り当てることは、逆に、AIの能力を活用できなかった場合も生じうるので、それもAIのリスクととらるえべきであると指摘されています(46)。文脈特化性(context-specificity)がある故に、既存の規制当局によって実施されるというアプローチがとられるべきであるとされています。

3.2.3   原則ベースのアプローチ

現在の規制枠組においても、考慮されている原則として①安全性、セキュリティ、堅牢性②適切な透明性と説明可能性③公平性④説明責任とガバナンス⑤ 競合性と救済という原則を基盤にしています。これらは、OECD のAI 原則を基礎としています(48)。これらの原則は企業の指針となり(49),規制当局が、既存の規制を補完し、名覚醒を高め、規制の範囲を超えて事業をおこなう企業との摩擦を減少させる機能を有します(50)。

ちなみに、この規制当局のアプローチは、英国において従来からの

  • Plan for Digital Regulation
  • the findings from the independent Taskforce on Innovation, Growth and Regulatory Reform,
  • the Regulatory Horizons Council’s Closing the Gap report on implementing innovation-friendly regulation
  • Sir Patrick Vallance’s Regulation for Innovation report

があげられています。また、AIポリシーペーバーからも

  • 原則における安全・セキュリティ・堅牢さの統合
  • アカウンタビリティとレスポンシビリティの改善
  • 原則のそれぞれの定義と原理のリファイン

がなされています(52)。

規制当局が、原則に関するガイダンスを発行したり、既存のガイダンスを更新して、企業に明確性を提供することになるとしています(53)。また、政府は原則の全体的な有効性と枠組のより広範な影響を監視するとしています(54)。

また、ここで、諮問がなされており、具体的には、

高橋コメ
 1 組織がAIを使用する場合、それを明確にすることを義務付けることは、透明性を向上させることに同意しますか? made by AI タグってどうなの
2. AIの透明性を向上させるために、組織に求めることができる他の措置はありますか?
3. AIに関連する被害について争ったり、救済を受けたりする現行の方法が適切であることに同意しますか? 提供者側の過失とAIの説明責任・それらの訴訟での証明責任は、問題となりそうですね。
4.AIに関連する被害について異議を申し立てたり、救済を求めたりするための現在の手段を、改善できるとすればどのように改善できますか?
5. 効果的に実施された場合、改訂された分野横断的原則がAI技術がもたらすリスクをカバーすることに同意しますか?
6. 改訂された原則に欠けているものがあれば教えてください。

とされています。

3.2.4  原則の適用のための望ましいモデル

原則が、政府によって公表され、制定法ベースではない形で、規制当局によって適用されるという枠組が構想されています。その仕組みによって原則が、効果的に遵守され、イノベーションを促進しながら、リスクにも適切に対処することを確実にするいい機会となるとされています(55)。 もっとも、法的な根拠については、介入のさいに懸念になるという指摘もなされています(56)。そのために原則を配慮する義務を明確化することの可能性は指摘されており(57-58)。特定の原則が特定の状況や特定の規制当局によって適用できない場合等には、広範な法改正が必要になる可能性がある(59)とされています。

3.2.5 原則の適用における個々の規制当局の役割

原則の適用にあたっては、分野によっては、Aiガバナンスのための原則がすでに存在し、分野横断的な原則よりもさらに進んでいる場合もあること(60,国防省について61)、二つ以上の原則が対立することもありうること(62)が述べられている。政府は、規制当局が
o 分野横断的な原則を評価し、その範囲内にあるAIのユースケースに適用する。
o 産業界が原則を適用するのを支援するために、原則が既存の法律とどのように相互作用するかについて、関連するガイダンスを発行する。そのようなガイダンスは、コンプライアンスがどのようなものかを説明し、例示するものでなければならない。
o 適切な場合には共同ガイダンスを含む、明確で一貫性のあるガイダンスを共同で作成することにより、複数の規制当局の管轄内で事業を行う企業を支援する。

としています(63)。また、規制当局が、その規制の有効性を監視・評価する必要がある(64)のと同時にギャップが存在する場合、権限の変更・規範の更新・追加的な法的介入などの必要性があること(65)、AIを早急に規制し らうとする試みは、イノベーションを阻害するリスクがあるとヴァランス卿のレュローで指摘されていること(66)が記述されています。

3.2.6 原則の適用に関する規制当局へのガイダンス

規制当局は、枠組みを自ら実施し、自らの権限内でAIを規制することの有効性を監視・評価する可能性があることを理解しています(67)。また、政府は、枠組がどのように運用されるべきかという点に関するガイダンスを作成します(68)。このガイダンスは、

  • 特定の状況においてAIがもたらすリスクに焦点を当てることで、成長とイノベーションを促進する比例的なアプローチを採用する。
  •  政府によって、または政府に代わって実施された横断的なリスク評価を考慮に入れ、優先されるリスクに対処するための比例措置を検討する。
  •  適切な規制要件を策定、実施、施行し、可能であれば、原則の実施を既存の監視、調査、施行のプロセスに統合する。
  •  必要に応じて共同ガイダンスを作成し、業界が原則と関連する規制要件を遵守することを支援する。
  •  保証技術や技術標準のような信頼できるAIのためのツールが、規制遵守をどのようにサポートできるかを検討する。

ためのものです。

3.3 中央機能について

(原文には、3.3のタイトルはないです)他の仕組みとの分担を図にしているのがあるので、それの翻訳を示します。

3.3.1 フレームワークを支える新たな中央機能

もっとも、中央での調整や監視が比較的少ない現在の規制のパッチワークが、このまま放置されればイノベーションへの障壁を増大させるとという懸念がパブコメで表明されており、政府は、枠組み全体を調整、監視、適応させるためのメカニズムを導入する意向が表明されています(70,71)。

一部の機能を一元的に提供することで、政府は、枠組がどのように機能しているか、どこが効果的で、どこを改善する必要があるかを包括的に把握することができるとしてます(72)。このための機能としては

  • モニタリング・評価・フィードバック(M&E)
  • 原則の首尾一環した実施の支援
  • セクター横断的リスク評価
  • イノベーター支援
  • 教育と意識向上
  • ホライゾン・スキャンニング(新たなトレンドや機会を監視し、フレームワークが効果的に対応できるようにする)
  • 国際的な規制の枠組との相互運用性の確保

があげられています(73)。ここでの諮問事項は、

9 ボックス3.1 で説明されている機能が一元的に提供されれば、AI規制の枠組みにとって有益であることに同意しますか?
1 0 . 中枢機能に欠けているものがあるとすれば、それは何だろうか?
1 1 . 私たちが提案する中枢機能の 1 つ以上を提供すべき既存の組織をご存知です か?
1 2 . 企業が自信を持って AI 技術を革新し、活用するのに役立つ追加的な活動はあるか?
12.1. もしそうなら、こうした活動は政府、規制当局、あるいは別の組織が 行うべきか?
1 3 . 個人や消費者を支援する追加的な活動はあるか? AI 技術を自信をもって使えるか?
13.1. もしそうなら、こうした活動は政府、規制当局、あるいは別の組織が 行うべきか?
14. 異なる規制当局が発行する AI に関するガイダンスの重複、重複、矛盾を避けるにはどうすればよいか。

となっています。特に、M&E機能がどのようにして比例的な・適用的なアプローチを可能にしていくかということが、ボックス3.3で論じられています。

上述のような中心的な機能の提供を監督するためには、適切なアーキテクチュアを用意することが重要であるとされています(74)。これらの機能は、政府が提供する責任を負います(75)。ここで、反復的(iterative)なアプローチがとられていることが明らかにされており、

  • 既存の規制フォーラムを拡大し、AIの規制に関わるあらゆる規制当局を参加させることが可能かどうか、あるいは追加のメカニズムが必要かどうか。
  •  原則の実施と監視を支援するために、政府が必要とする可能性のある追加的な専門知識。
  •  幅広い意見を確保するために、業界や消費者全体から意見を集める最も効果的な方法

に注力するとされています(76)。このプロセスでの外部の専門家の活用(78)、プロセスの見直しの重要性(79)が主張されています。

18 規制当局が原則を適用するのに最も適した立場にあり、政府が監督を行い、中央機能を提供するのに最も適した立場にあることに同意しますか?

というのが諮問事項となっています。

3.3.2 ライフサイクルを通じた説明責任への取り組みにおける政府の役割

ここで、同白書は、

説明責任(accountability)と法的責任(legal responsibility)の明確な分担は、効果的なAIガバナンスにとって重要である。

としています(80)。原則への適合の法的役割は、AIライフサイクルの関係者に割り当てられなければなりません(80)。リスク、責任(liability)、AIガバナンスの責任(responsibility)が複雑なサプライチェーンのなかで適切に割り当てられることは難しい(81)。政府としては、現時点で、この問題に介入することは考えていない(83)。信頼できる AIのための様々なツール、例えば保証技術、自主的ガイダンス、技術標準などの利用を政府は促進する(84)。枠組の評価は、将来、法的な責任が効果的・構成に配分されているかをなすことになる(85)。諮問事項については、資料略。

3.3.3 基盤モデル (Foundation models ) について

基盤モデル (Foundation models )というのは、膨大なデータに基づいて学習され、幅広いタスクに適応できる汎用AIの新しいタイプである。このモデルについては、このモデルがどのように動き、どのようなリスクがあるかについてコンセンサスを得ていない(86)。複雑なエコシテムの種々に活用出来るので、パラダイムシフトであり、社会と経済に重大なインパクトを与えるとされています(87)。このモデルを開発している比較的少数の組織は、コントロールをするものもあれば、オープンソースのアプローチをとるところがあります(88)。提案している枠組では、この基盤モデルでの提案された問題は、上の3.3.2 で概略述べられたことで対応されます(89)。また、中央機関は、基盤モデルの規制に重要な役割をはたすものとされています(90)。産業界・学会、研究組織および国際的パートナーは、基盤モデルの規制に関するする課題にたいおうする道を探しているという認識を有しています(91)。英国は、規範モデルタスクフォースが構築されることがアナウンスされています(92)。

これについての諮問事項は、

F1. 大規模言語モデル( LLM )やオープンソースモデルなどの基盤モデルは、 AIの結果に対する法的責任を判断しようとする規制当局に、具体的にどのような課題をもたらすのでしょうか。
F2. コンピュート計測が、基盤モデルのガバナンスの一部として検討される可能 性のあるツールであることに同意しますか?
F3. 基盤モデルを管理する上で、より効果的な他のアプローチはありますか?

3.3.4 人工知能のサンドボックスとテストベッド

パトリック・ヴァランス卿のデジタル報告書は、政府が規制当局と協力して、イノベーターを支援するためのAIサンドボックスを開発することを提言しており、予算案では、政府はこの提言を推進することを確認した(93)。情報コミッショナー事務局(ICO)と金融行動監視機構(FCA)は、すでにそれぞれの分野でデジタル・サンドボックスの試験運用を成功させていること(94)、単一のセクターに最初のパイロット版を集中させるつもりであること(97)、現在、このようなセクターを募集していること(98)、サンドボッスクの内容についても諮問を行うこと(99)、バトリックバランス卿の提言における設計原則を取り組んでいくこと(100)などが述べられています。

3.3.5 規制者の能力

ろ、どの規制当局の権限も拡大することはなく、また拡大することも想定していないが、AIの利用を効果的に規制するためには、多くの規制当局が新たなスキルと専門知識を習得する必要があること、規制当局間で能力のレベルが異なることが浮き彫りになったこと(103)、AIリスクに対処するために規制当局が必要とする能力や、規制当局がこれらを習得するための最善の方法についても、意見がなされたこと(全体について102)、この為に既存の取り組みを活用し(104)、共通の専門知識プールを設立することも検討する(105)とされています。

パート4  実装をサポートする信頼できるAIのためのツール

4.1 AI保証(アシュアランス)技術

産業界と市民社会は、コンプライアンスを支援するための様々な実用的ツールを強く望んでおり、AIの責任ある導入を可能にし、提案されている規制の枠組みをサポートする上で、保証技術や技術標準を含む信頼できるAIのためのツールは重要な役割を果たすこと(106)、政府はすでに、

  • 英国における効果的なAI保証エコシステムへのロードマップ
  • UK AI Standards Hub

を設立しています。このためには、影響評価、監査、性能テスト、形式的検証手法などを含む開発および配備のライフサイクル全体にわたってAIシステムの信頼性を測定、評価、伝達するための保証技術のツールボックスが必要であり(107)、これらの技術には、英国は、2023年春にAI保証技術のポートフォリオを発表するとされています。

4.2 技術標準

技術標準と保証手法によって各組織は、そのシステムが英国のAI規制原則に沿ったものであることを明らかにすることができます(110)。 種々の技術標準が開発されていることはいうまでもなく、注157では、

安全性、透明性、堅牢性などの信頼性特性に対応するAI固有の規格は、ISO/IECやIEEEなどのSDOで開発されているか、現在開発中である(例えば、IEEE 7001、ISO/IEC TS 6254、ISO/IEC TR 5469、ISO/IEC 24029-2)。

とされています。また、英国は、国際技術標準の開発で先導的や役割を果たしており、政府は、上ででた標準ハブなどをも含む活動を支援します(112)。

パート5 属地的適用(Territorial application)

これは、5.1 属地的適用と5.2 規制的枠組の域外適用にわけて論じられています。もっとも、国際的な議論に影響を与えたいものの、生きがいにおける適用を求めるものではないとしています。

バート6 国際的相互流用性と国際的取り決め

6.1 世界を舞台にした規制の枠組

民主主義的価値と経済的優先事項を支持するAIの枠組みを開発するという英国の考え方は、英国の国内規制と国際的な議論の両方に対するアプローチの原動力となっており(116)、AIのサプライチェーンが複雑で国境を越える性質を持っており、多くのAIビジネスが複数の法域にまたがって活動しており、それゆえに、緊密な国際協力によって、我々の提案する枠組みの影響力を強化することになります(117)。『国際技術戦略』では、英国の価値観と優先順位に沿って世界のAI活動を形成し、権威主義や抑圧のためにAI技術を採用・応用しようとする動きから保護する方法を改めて示しており、英国の業界リーダーと協力し、AIの最前線にとどまり、同じ志を持つ国々とベストプラクティスを共有することを確実にする(119)。
ここで、多国間の活動とし、OECD AIガバナンス作業部会、AIに関するグローバルパートナーシップ(GPAI)、G7、欧州評議会のAI委員会、ユネスコなどがあげられています。

パート7 結論と次のステップ

については、白書報告後の6月間に行うこと、それから12月までの間に行うこと、それ以降の間に行うこと、にわけてステップが記載されている。長期的なステップについてみると

  • 枠組みが効果的であることを確認するために必要なすべての中心的機能の最初の反復を提供する。
  • 分野横断的な原則がどのように適用されるかについてのガイダンスを公表していない主要な規制当局と協力し、そうするよう奨励・支援する。
  • 中央の経済圏横断的AIリスク登録の草案を公表し、協議に付す。
  • パイロット版から得られた知見に基づき、規制のサンドボックスまたはテストベッドを開発する。
  • 最初のモニタリング・評価報告書を公表する。この報告書では、分野横断的な原則がどの程度機能しているか、また中心的な機能がどの程度発揮されているかを評価する。パフォーマンスは、私たちのフレームワークの特徴である「イノベーションを促進する」、「適切である」、「信頼できる」、「適応できる」、「明確である」、「協力的である」に照らして評価される。また、報告書では、適切なガイダンス(共同ガイダンスを含む)が発行されているかなど、既存の規制活動や、これを支える政府の役割についても検討する。報告書には、法的介入の必要性を含め、枠組みの反復の必要性についての検討も含まれる。
  • AI規制ロードマップの更新版を公表する。特に、中央政府のチームが長期的に中央機能を監督するための最も適切なメカニズムなのか、それともより独立した組織がより効果的なのかを評価する。

という事項が明らかにされています。

 

 

 

関連記事

  1. 英国のサイバー軍 公式に登場
  2. ホワイトハウスや同盟国の「悪意あるサイバー活動および無責任な国家…
  3. AIの基盤モデルとAI規則案修正(6月14日)
  4. 10th Anniversary of IT Research …
  5. G7 コーンウォールサミットとサイバー/宇宙法
  6. 英国情報コミッショナーのAIとデータ保護のガイダンス
  7. 人工知能に教える手間は、誰のもの?
  8. 新しい仮面ライダー作品に対して国立情報学研究所が企画協力・監修 …
PAGE TOP