行政分野での自動的意思決定(AI)のEU の参考文献を読む

欧州連合国における行政分野でのアルゴリズム意思決定についての報告書を読んでみたいとおもいます。

この分野は、近時では、AIというアプローチのほうが、一般的なわけですが、それについては、Ai法である程度の方向性がでていますが、その前の段階で、どのような議論がなされていたのか、という点も含めてみてみます。

この分野として確認しておきたいという報告書としては、

などがあります。ということで、それぞれ簡単に見ていきます。

1 ”Automating Society-Taking Stock of Automated Decision-Making in the EU ” (2019)

これは、AW AlgorithmWatch gGmbHという個⼈や社会に重要な影響を与えるアルゴリズムによる意思決定プロセスを評価し、明らかにする⺠間財団と個⼈の寄付によって資⾦提供されている⾮営利の研究および擁護団体の公表している報告書です。

この報告書は

  1. アルゴリズム駆動型の⾃動意思決定 (ADM) システムが、すでに EU 全域で使⽤されていること
  2.  EUレベルだけでなく加盟国における政治討論の現状を概説する。
  3. ⾃動意思決定が個⼈と社会に与える影響に焦点を当てた研究者ネットワークの中核となること。
  4. 調査結果から推奨事項を抽出すること

を目的としており、

  1. 社会は⾃動意思決定についてどのように議論しているのでしょうか?
  2. どのような規制案がありますか?
  3. どのような監督機関やメカニズムが整備されているか?
  4. すでに使⽤されている ADM システムは何でしょうか。

の 4 つの異なる問題に焦点を当てています。

具体的な調査の対象となっている国としては、欧州連合、ベルギー、デンマーク、フィンランド、フランス、ドイツ、イタリア、オランダ、ポーランド、スロベニア、スイン、スウェーデン、イギリスです。

個人的に興味深いのは、この報告書のタイトルが、AIではなくて、自動的意思決定(ADM)に着目するようにされていることです。これについては、

自動意思決定(ADM)という用語は、私たちが社会として直面していることを、「人工知能」という用語よりもよく定義している。

アルゴリズムによって制御され、自動化された意思決定や意思決定支援システムとは、意思決定が当初は部分的に、あるいは完全に別の人物や企業体に委ねられ、その意思決定者が自動的に実行される意思決定モデルを使用して行動を実行する手続きのことである。このように、意思決定そのものではなく、データ主導でアルゴリズム制御されたシステムに実行を委ねることこそ、私たちが注目すべきことなのである。それに比べ、人工知能は定義があいまいな用語( a fuzzily defined term)であり、さまざまな論争を巻き起こすアイデアを包含しているため、目の前の問題に取り組むにはあまり役に立たない。加えて、「知能」という言葉には、人間のような自律性や意図性という意味合いが含まれており、マシーンベースの手順には当てはめるべきではない。また、単純なルールベースの分析手順のような、今日の定義では人工知能とはみなされないシステムも、リスク評価のためのスコアリングシステムのような形で、人々の生活に大きな影響を与える可能性がある。

としています。

それらの研究の結果として

  1. 政治的に重要な側⾯に議論を集中させること
  2. AI に関する議論は、現在または差し迫った開発に限定されるべきであること
  3. ⾃動意思決定システム全体を、考慮すべきであって、技術のみを考慮しないこと
  4. 国⺠が新たな課題に適応できるようにエンパワーすること
  5. ⾏政に新たな課題に適応できるようにエンパワーすること
  6. 市⺠社会の関与を強化すること
  7. 適切な監督機関が存在することと、その任務を遂⾏できることを確保すること
  8. 構成国間の溝を埋める
  9. 規制のアイデアとしてデータ保護だけに注⽬しないでください。
  10. 市⺠⾃由団体を含む幅広いステークホルダーを、優れた設計プロセスと監査の基準策定に関
    与させる。

を推奨事項としています。

2 Use cases: Impermissible AI and fundamental rights breaches(2020)

これは、、EUの法律と基本的権利を侵害する⽅法で⼈⼯知能が使⽤されており、そのため法的禁⽌または禁⽌が必要となるヨーロッパ全⼟でのいくつかのケース スタディであって、EU の⼈⼯知能規制の⽂脈において政策⽴案者を⽀援するためにまとめらた報告書です。

同報告書は、

  1.  重要な公共サービスへのアクセスや提供を決定するためのAIの利⽤
  2. 必須サービスの実施に関して、感情気分や敏感なアイデンティティ特性をを識別、分析、評価するためのAIの利⽤
  3. 予測型警察活動
  4.  国境、移⺠管理、または疎外されたグループに対する検査におけるAIシステムの使⽤
  5. 生体認証管理

にわけて、問題となる事例をピックアップして論じています。具体的なシステムについては省略します。

3 欧州評議会構成国における行政意思決定における人工知能およびアルゴリズムシステムの行政法と利用についての比較研究

Comparative Study on Administrative Law and the use of Artificial Intelligence and other Algorithmic Systems in Administrative Decision-making in the Member States of the Council of Europe  (2022)

これは、Prof. Dr. Johan Wolswinkel によって作成された欧州法律協力委員会(CDCJ)監修の報告書です。

この比較研究は、欧州評議会のいくつかの加盟国における人工知能(AI)システムおよびその他の自動化されたシステムの利用に関する行政法による規制について報告するものです。24国の個別の報告をもとに、

  • ADM システム全般、特に AI システムの利用を特に取り上げた行政法制はあまりないということ
  • 行政法は、ADMが使用されるか否かにかかわらず、行政上の意思決定のいかなる事例も、行政法の一定の一般原則に従うべきであると想定していること

についてふれています。

AIシステムが行政法の原則に与える影響は、使用されるAIシステムの特性(単純な推論か複雑な学習か等)と、意思決定プロセスにおけるその役割(支援的か決定的か)によって異なる。

とされています。

同書は、1 はじめに、2 行政法とAI 簡単な性質づけ、3 構成国への質問表の結果、4 結果の概要、5 結論からなりたっています。

2 行政法とAI 簡単な性質(ADMINISTRATIVE LAW AND ARTIFICIAL INTELLIGENCE: A BRIEF CHARACTERISATION)

この報告書では、人工知能に関するアドホック委員会(CAHAI)の作業に従い、

AIを、人間の知能と一般的かつ現在関連付けられている能力を示す、さまざまな技法に基づくさまざまなコンピュータ・アプリケーションの集合

という定義を採用しています。これは、かなりの程度、広範な定義ということになります。これば自動的意思決定のサブセットとなります。

ここで、自律的なシステム(自動化システムのみによって意思決定がなされる-決定的アプリケーション-determinative applications)と支援的なシステム(部分的に自動化システムに基づく意思決定(支援的アプリケーション-supportive applications))とを区別することになります。

一方、行政法の定義についてもふれています。同報告書は、行政法を

公的機関と市民との関係を規定する一連の原則や規則

と定義しています。この結果、AIシステムが行政上の意思決定の文脈で適用される場合、AIは行政法の領域に入ることとなるので、

  • ADMとAIによってどのような行政法の規則と原則が影響を受けるか、
  • また逆に、ADM全般とAIに特に関連する行政法の規則と原則は何かということ

が問題となるとしています。これによって、種々の原則との関係が議論さます。

ここで、以下の原則は、「The Administration and You. A Handbook. Principles of administrative law concerning relations between individuals and public authorities」によるものです。

原則1 適法性と制定法目的との適合性( lawfulness and conformity with statutory purpose )

この原則のもと

  1. 特定の形式の自動的意思決定 の使用それ自体が適法であるかどうか
  2. 自動的意思決定の利用がどの程度まで事実上の権限委譲に相当するか(行政権限の委譲に関する法律上の禁止事項に抵触する)
  3. 公的機関が意思決定 権限を依然として自ら使用しているかどうかということ
  4. 公的機関に裁量の権限が付与されている場合、自動的意思決定 の採用と使用は、裁量を完全に束縛するプロセスをもたらす可能性がある
  5. 「不適切な目的」での 自動的意思決定の使用に関するもの

の個別の論点が指摘されています。

原則2 平等原則(equality / non-discrimination)

これは、一般に バイアスと差別のリスクということになります。

アルゴリズムで使用される様々な要素の相対的な重みが事前に特定されない可能性があり、アルゴリズムの入力となるデータが偏っている可能性がある。

となります。

原則3 客観性と公平性(objectivity and impartiality )

AIシステムに関して

  1. 正確に機能すること
  2. 権限を超えて行動した場合(ultra vires)のないこと(関連性のない考慮事項に基づいて行動したり、関連性のある考慮事項を考慮しなかったりしないこと)

が議論されています。

原則4 比例原則(proportionality)

  1. 特に必要性に関しては、自動的意思決定の使用が「ナッツを割るためのハンマー」であるかどうかが重要な問題となる
  2. 形態の拡張された意思決定(支援的使用)が、完全な自動的意思決定(人間の介入を伴わない ADM) に依存するよりも優れている可能性があるかどうか

原則6 透明性(transparency)

  1. 決定後に(もしあれば)理由を示す義務に関する問題と、公正な審理のために自分に不利なケースを通知する請求者の権利に関する問題とがあること
  2. 情報公開法)に基づいてソフトウェアコードへのアクセスを認めるべきかどうかである。(複雑なのは、ADMシステムの中には、知的財産権に依存する民間企業によって開発されたものもあり、それによってソフトウェアコードの公開に反対する可能性があるということ)

原則7 プライバシーと個人情報の保護(privacy and the protection of personal data )

個人データの自動処理に関する個人の保護に関する条約および個人データの自動処理に関する個人の保護に関する条約を改正する議定書に従い、個人は以下の権利を有します

  • (i) 本人の意見を考慮することなく、自動化されたデータ処理のみに基づいて、本人に重大な影響を与える決定を受けないこと
  • (ii) 当該データ処理の結果が本人に適用される場合、要求に応じてデータ処理の根拠となる理由を知ること
  • (iii) 管理者が個人の利益または権利および基本的自由に優先する正当な理由を示さない限り、本人の状況に関連する理由により、いつでも個人データの処理に反対すること。

原則10 聴聞される権利(right to be heard)

市民は、公正な聴聞を受けるために、自分に不利な事案について告知を受ける権利を有しており、上の透明性(原則6)とも関連している。

人間の職員が事実上意思決定の「輪の中にいる(イン・ザ・ループ)」という保証のある限り、人間の職員によって行われる場合、意見を聴かれる権利は、意思決定プロセスに極めて容易に組み込むことができるとされています。

原則11 代理および支援(representation and assistance )

これは、公的機関は、特に行政上の決定が個人の権利または利益に直接的かつ不利な影響を及ぼす可能性がある場合、個人が代理される機会、またはその他の方法で意見を述べる機会を与えなければならないという原則です。

公的機関と市民との間の武器の平等がどのように保証されるのかがしばしば疑問視されることから、

  • 中立的かつ独立した統計専門家による監視・審査機関の設置
  • 専門家による諮問委員会やピアレビュープロセスによる事前のルール策定プロセスが必要となる可能性
  • 武器の平等の観点から、透明性が本当に競技場を平らにするための解決策なのか(「透明性の誤謬」)、あるいは他の説明責任メカニズムも同様に重要であり、それゆえに強化される必要があるのかが疑問視

という点が指摘されています。

原則19 不服申し立ての権利(right to appeal)

これは、「すべての人は、自己の権利や利益に直接影響を及ぼす行政上の決定について、争点となっている決定の是非と合法性の両方について司法審査を求めることができるという原則」であるが、

  • 公的機関が複雑な自動的意思決定システムを使用している場合、専門知識の欠如により、裁判所がより一層の尊重を求めるようになる危険性があるのではないか、
  • 行政法は、特に自動的意思決定に関しては、透明性と通知、関連性の法理、実質的審査という点で、説明責任をより強固な形にする方向へと、伝統的な恭順の前提から脱却すべきではないか

とされています。

3 構成国についての調査結果(RESULTS OF THE SURVEY)

ここで、構成国に対しての質問表が送付されて、回答の概要が整理されています。具体的な回答は省略するとして、質問表をまとめます。

------

付録III:行政上の意思決定におけるAIシステムの使用に関するCDCJアンケート

(略)アルゴリズムによる意思決定(ADM)は、(完全にまたは部分的に)自動化されたシステムを使用するあらゆる形態の行政上の意思決定として理解される。AIとは、さまざまな技術に基づくコンピュータ・アプリケーションのことであり、一般的かつ現在人間の知能と関連付けられている能力を示すものである。

A. 法律

1. 行政の意思決定手続きにおける ADM の利用について、国内法が採択されているか。
2. もしそうなら、この法律は、行政上の意思決定の文脈において、一方ではAIの応用を、他方では他の形態のアルゴリズムによる支援を区別するのか。
3. 法律は、公的機関による ADM(AI を含む)の特定のアプリケーションの使用を明確に禁止しているか。
4. 行政当局がADMを使用することが認められている限りにおいて、行政当局によるアルゴリズムによる意思決定に関する法律は、どのようなトピックを対象としているか。(いくつかの回答が可能)

  •  ADMの使用について個人が知らされる権利
  •  個別の決定に対する説明を受ける権利
  •  差別の禁止/偏見の防止
  •  人間の介入に対する個人の権利
  •  個人がソフトウェア・コードにアクセスする権利
  • プライバシー/個人情報の保護
  •  その他: …

5. 行政当局による ADM および/または AI の利用を規制するための国内法は準備中か。

B. 行政部門

6. あなたの国では、行政当局がどのようなAIを活用していますか?
7. 行政当局は、ADM の利用方法について、自己拘束力のある方針を採用しているか。
8. ADMの利用と行政裁量の法的概念を調和させるために、どのようなアプローチが採用されるのか?
9. 行政意思決定のための ADM システムの開発・導入における公的機関と民間団体との協力は、あなたの国において法的な問題を引き起こしますか?

C. 司法

10. 行政当局によるADMの利用を特に取り上げた裁判所の判例はありますか?
11. もしそうなら、行政当局によるAIの利用を特に取り上げた裁判所の判例はありますか?
12. 行政当局によるADM(AIを含む)の利用に関する判例法において、善良なる行政の一般原則はどのような役割を果たしているか。(複数の回答が可能)
– 意見を聞く権利- 比例原則- 平等・無差別の原則- 武器平等の原則- その他: ..

13. 行政当局によるADM(AIを含む)の利用に関する判例法では、主にどのようなトピックが取り上げられているか。(複数回答可)
– ADM/AIをこのように使う- 行政判断の説明可能性- 人的介入の権利- プライバシー/個人情報の保護- その他: …

D. ADM/AI、行政の意思決定と欧州評議会

14. あなたの国の行政当局によるADM(AIを含む)の使用規制において、欧州人権条約(ECHR)は役割を果たしていますか?
15. 貴国の行政当局による AI 利用の規制において、欧州評議会の他の文書が役割を果たしていますか(法律、政策規則、判例法において)。
16. 法学者の間で、特にADMやAIの課題に対処するための行政法の欠点について、国内で議論がなされているのだろうか?

---

4. 結果概要

  • 完全な概要なし
  • 黎明期にあるADMとAIの規制
  • 専用AI法なし
  • 誰が指導するか
  • データ保護法の支配的役割
  • 今後の役割
  • 公的機関が ADM を利用する際には様々なトピックが関連すること

が議論されています。

4 自動的意思決定のガバナンスとEU法

「自動的意思決定のガバナンスとEU法」”Governance of Automated Decision-Making and EU Law” (2024)は、HERWIG C.H. HOFMANN(ルクセンベルグ大学教授)とFELIX PFLÜCKE(リサーチャ)の編集による書籍です。この書籍は、11の論文から成りたっています。

  • 1. EU公共法における自動意思決定(ADM)(Herwig C.H. Hofmann )
  • 2. 欧州連合公法におけるサイバー委任の評価  (Herwig C.H. Hofmann )
  • 3. EUレベルにおけるアルゴリズム、自動化、行政手続   (Oriol Mir A. )
  • 4. デジタルサービス法によって確立されたEUデジタル単一市場の協調的ガバナンス ( Jens-Peter Schneider、Kester Siegrist、Simon Oles )
  • 5. 伝染病の国境を越えた管理のためのデジタルヘルスインフラ:新型コロナウイルス感染症(COVID-19)パンデミックに関するケーススタディ (Franka Enderlein)
  • 6. スマートボーダーが見張っている!:EUの国境における自動データ処理と意思決定が基本的人権に及ぼす影響 (Paulina Jo Pesch ,Franziska Boehm)
  • 7. 人間と機械の間:EUにおける自動意思決定慣行の司法解釈  スュメイェ・エリフ・ビベル
  • 8. 翻訳で失われる政治的言論の自由? EU法における自動化およびターゲットを絞った政治広告に関する4つの規制枠組み サム・リグリー、ミイッカ・ヒルトネン、パイヴィ・レイノ=サンドバーグ
  • 9. EU行政の自動意思決定における適法性と説明可能性の相互作用 ( Davide Liga)
  • 10. EUにおける相互運用性:デジタル公共サービスの実現に向けて (Felix Pflücke)
  • 11. EU公法とガバナンスにおける自動意思決定 ( ヘルヴィヒ・C・H・ホフマン、フェリックス・プフュッケ)

この本は、行政分野における自動的意思決定を取り扱っており、総論的な分野についての議論と具体的な分野独自の問題について論考が集められています。後者は、プラットフォーム対応、デジタルヘルスインフラ、スマートボーダー、政治的言論の自由になります。また、EUにおける問題という意味では、EUにおける相互運用性というのもその問題であるように思えます。

では、残りについてどのように考えるかというと、論点としては、「サイバー委任(論文2)」、「アルゴリズムの影響(論文3)」「適法性と説明可能性(論文9)」「 自動的意思決定のガバナンス(論文11)」ということになるかとおもいます。

ここでは、これらについてさらってみていこうとおもいます。

1章. EU公共法における自動意思決定(ADM)(Herwig C.H. Hofmann )

この論文は、全体を俯瞰するような感じなので、見ていくことにします。

構成は、

A ADMテクノロジーと法制度

I. ADM テクノロジー – アルゴリズム、予測、機械学習テクノロジー

II. 行政手続法における自動化意思決定システムの役割

III. ADM技術と公法—最初の所見

B. 規制同盟としてのEUの発展という文脈におけるデータおよび情報

I. 規制体制とADM

II. データ収集と相互運用性

III. データの品質

C. インターフェースの定義

I. データ処理の量と質、およびデータの偏り

II. 行政手続と意思決定の段階

D. ADM の利用における権利と原則

I. 手続上の権利

      1. 適法性と審査可能性
      2. 注意義務、適正な行政、および防御権
      3. 監督と効果的な救済措置

II. 実質的な権利

      1. 差別禁止と ADM
      2. 情報に関する権利

E. EU公法における自動化された意思決定

このEの部分は、総論のような感じなので、よく見ると

ADMシステムの準規則制定的性格を規定する条件と、ADM技術の支援を受けてなされる個々の決定とを区別する必要がある。

としています。また、

審査責任に適用される法的原則は、ADMシステムが使用される段階によって異なる可能性がある。

としています。この部分について

 手続きは、自動化システムへの意思決定権限の委任という形態、すなわち「サイバー委任」という形態への動きが強まるほど、ADMの対象となる 。権限委任の適法性の基準は、その文脈において適用される。

とされています。

一方、

  • ADMシステムの利用は、人間の審査では理解できないことが多く、情報の非対称性から生じる問題を強調する。
  • ADMシステムの説明責任は、ADMシステムの一般的なレビューや、ADM技術の助けを借りて下された特定の決定のレビューを行うための、人間と機械のインターフェースの設計にも大きく影響される。
  • ADMシステムとその合法性および説明責任の問題は、特定のデータベースやデータソースへのアクセスを念頭に置いてプログラムされることが多く、この場合、ADMの説明責任の条件は、意思決定のために提供されるデータの性質と関連している

とされます。

説明責任のメカニズムでは、最終的な意思決定が論理的であることが求められ、収集されたデータのタイプ、意思決定プロセスへの情報入力としてそれらがどのように使用されたか、そしてこの結果どのような結論が導かれたかについての詳細が求められる。このような情報公開は、ADMの人間による審査や修正の前提条件である。

とされています。

11章. EU公法とガバナンスにおける自動意思決定 ( ヘルヴィヒ・C・H・ホフマン、フェリックス・プフュッケ)

最後の章におかれている論文を読んでみます。この論文は、この論文集のそうまとめ的な感じなので、この論文を分析することで、この本のだいたいの内容を理解しうるということになるかとおもいます。この章は、実質的な問題提起である「A.  自動化された意思決定のガバナンスとEU法」と各章のふりかえりである「B.  学んだこと  ―  公共領域におけるAI規制の新たな視点に向けて」に続けて、「C.  EU公法における自動意思決定の規制の概念に向けて」で、各論点が分析されています。この各論点は、「I.  合法性と法的根拠」「II.  情報、データ、トレーニングデータ」「III.  注意義務、適正な管理、防御権」「IV.  監督と効果的な救済策」で論じられています。

なので、この「C.  EU公法における自動意思決定の規制の概念に向けて」を見ていくことにします。

「I.  合法性と法的根拠」

EU法において、効果的な救済を受ける権利(「自然人または法人の私的活動の領域における公的機関による恣意的または不均衡な介入からの保護」) 欧州基本権憲章第47条)の文脈において保護されています。

また本論文では、自動的意思決定のシステムは、

  • データと情報の収集
  • 規制措置を実施する行政機関へのデータ転送のインターフェース
  •  ADM  システムに基づく情報の処理

と考えており、これらの各段階において、上記の保護が実現される必要があると考えています。また、したがって、

ADM  システムが規制上の意思決定の要素として使用される場合、ADM  の法的根拠に対する要件はそれに応じて高くなります。したがって、欧州基本権憲章  第  52  条  (1)  に基づき、ADM  コンポーネントを含む手順の展開には法的根拠が必要になります

とされています。EU法の一般原則として保護されていますが

欧州基本権憲章第41条により

  • 公正かつ公平な意思決定の権利
  • 注意義務の遵守(すべての関連事実の完全かつ公平な評価)
  • 審問の権利
  • ファイルへのアクセス
  • および理由を付した決定の権利

として展開されていると考えています。

また、同項では、自動的意思決定と行政法との間に潜在的なギャップがあり、それを埋めないといけないとしています。これは、ソフトウェアが現実を支配するのか、それとも法制度が技術的な現実よりも価値選択を押し付けることができるのかという問題であるとしています。

法律とテクノロジーの設計上の選択は、一方では説明責任を保証するために設計された法的原則と、他方では  ADM  テクノロジーの可能性と制限、および  EU  における政府機能のデジタル化で採用されている手順の実際の設計との間に乖離が生じないように行う必要があります

とされています。

II.  情報、データ、トレーニングデータ

行政当局は必要なソフトウェアの開発を一般に公共調達と非営利の外部パートナーに依存していることから、ADM  ベースの手順の品質を評価するのにAI  ベースのシステムのトレーニング  データへのアクセスが十分重要であるものの、それをどのように確保するのかという問題が生じることが提起されています。

デジタルサービス法の監督当局のアクセス権は、行政上の意思決定に使用される  AI  ツールのトレーニング  データに関してもアクセスと説明責任のフレームワークを開発できることを示しているとしています。個々の意思決定プロセスにおいて特定の情報についての透明性が考慮されることが不可欠であることから、明性の確保は、ADM  ソフトウェアのプログラミングに重要な影響を与えるため、規範的な要件として策定する必要があるとしています。

III.  注意義務、適正な管理、防御権

欧州法の判例において、措置 (measure)の理由付けは、  「注意義務」(duty of care)ものとで、要約された要素の遵守に関する情報を提供しなければなりません。また、行為のいかなる理由付けも、決定が「可能な限り最も完全な事実上正確で、信頼性があり、一貫性のある情報」に基づいて行われたことを実証しなければならないとされています。理由付けの義務では、意思決定者が後の司法審査の対象となる可能性のあるすべての事項を検討したことを文書化する必要があります。

したがって、注意義務の遵守は情報に関連しており、意思決定者は、理由付けに含まれる情報の追跡可能性を必要とするADMシステムに関して、特定の決定がどのように、どの情報を使用して行われたかを示す必要があります。

この問題について、ADM  の場合、AI  システムで使用される確率は、人間の因果関係主導のアプローチに必要な推論と同じタイプの推論ではないため、考慮され処理された情報、および情報が意思決定の結果にどのように影響したかに関して、推論は「従来の」意思決定プロセスよりも完全である必要があるとしています。そして、

説明モデルに基づいて「第三者がアルゴリズムの動作を調査してレビューできるようにする」ことがますます必要になっています。私たちの提案によれば、ADM  システムは事前の影響評価と機能に関する事後的な定期評価の対象となるべきであるという事実は、システムに関連するトレーニング  データの選択と操作、および「構成、収集プロセス、推奨される使用法」を記録する「データシート」をいつ、どのように  ADM  システムに添付すべきかという枠組みを設定します

また、このような観点から、アルゴリズムIA(影響度評価)という考え方を推奨しています。なお、同論文は、参照としてAI法の技術文書の維持義務をあげています。

IV.  監督と効果的な救済策

最終決定の自動化要素に関する透明な情報に基づいた、ADM  システムと人間によるレビューとの間の機能的なインターフェースを準備した上で、意思決定における  ADM  要素のレビューが必要です。

この点については、GDPR22条において

データ主体は、当該データ主体に関する法的効果を発生させる、又は、当該データ主体に対して同様の重大な影響を及ぼすプロファイリングを含むもっぱら自動化された取扱いに基づいた決定の対象とされない権利を有する。

としているところでもあります。とくに、この条文については、Schufa Holding AG判決 (CJEU – C‑634/21 – SCHUFA Holding (Scoring)) が、

「スコアリング」に関しては、裁判所は、銀行などの信用情報機関の顧客が信用供与において決定的な役割をスコアリングに与えている限り、それはGDPRによって原則として禁止されている「自動化された個別の決定」とみなされるべきである

としています。この判決については、また、別の機会でみたいと思います。

人間による監視が割り当てられる個人は、「高リスク  AI  システムの能力と限界を完全に理解し、異常、機能不全、予期しないパフォーマンスの兆候をできるだけ早く検出できるように、その動作を適切に監視できる」ようにする必要があります。

コンピュータシステムによる複雑なデータ収集の分析には必然的に「ある程度の誤差」が含まれるため、情報の自動処理によって得られた肯定的な結果は、「関係者に不利な影響を与える個別の措置が採用される前に」、非自動手段による個別の再検討の可能性に左右されなければならない。

としていて、個人データの自動的意思決定に関する権利のように人間の関与を求める権利を論じています。

結局、EU  法の範囲内で  ADM  を公的手続きに導入することの多面的な課題は、包括的な法的枠組みが必要になるとしています。もっとも、そのためには、EUの行政法には、確立された原則があるので、それらの原則が、情報管理の自動化に伴う量的および質的影響に対する課題に正しく適用されれば、半自動意思決定だけでなく完全自動意思決定の説明責任を強化するのに役立つ可能性があるとしています。

また、機能的および手続き上の責任を明確に特定する組織構造が必要であるとしています。これは、

  • デジタル情報システムを通じた行政機関間のデータ共有などの関連要素を促進するために必要
  • 公聴会の実施、その他の関連情報の収集、最終的な拘束力のある決定の採択などの手続き上の責任を保証するためにも必要
  • データ品質の保護、データの透明性、相互運用性標準の遵守の確保に関する考慮事項については、現在の  EU  公法の原則では回答がないか不十分な回答しか得られない側面であること。

などを理由としています。

5 AI in the Loopとまとめを図示する

うえで議論されたことのポイントを図示してみます。

ここで、行政の過程で種々の論点があること、その中には、行政過程における個人の権利があることを示しています。

これらであげた権利は、上記の「3 欧州評議会構成国における行政意思決定における人工知能およびアルゴリズムシステムの行政法と利用についての比較研究」で論じられた原則を権利という観点からまとめています。

なお、「ループ」という用語を出していますが、これは、AI技術と人間の判断との関係を示しています。もともとは、LAWSの議論で出てきた用語です。(この点については、平野晋スライド)

  • 最終的に人間が判断に介入する(Human in the loop)
  • 緊急時に人間が判断を覆すことができる(Human on the loop)
  • 常にAIが自律的な判断をなせる(Human out of the loop)

現在ではむしろ、「AI in the Loop: Humans Must Remain in Charge」で論じられているように、AI in the loopという用語で人間中心のAIを考えるべきであるということとされています。

これらの個々の論点について、それぞれ、解釈論的な問題が存在することになります。これらについて、どのように考えるべきかということについては、また、別の機会にしたいと思います。

 

関連記事

  1. 「データ主権」の正しい用語法-国家主権の通信における側面
  2. Line Developer’s Day
  3. 「中国 意見募集 データ域外移転のセキュリティ評価に関する弁法」…
  4. 第1回 接触確認アプリに関する有識者検討会合など
  5. TTX設例をもとにした「情報漏洩で炎上? そのときあなたの会社は…
  6. コロナウイルス(Covid-19)とGDPR (7)-欧州委員会…
  7. 2045 IT Odyssey
  8. コンタクトトレーシングのPIA COVIDSsafe (4) 手…
PAGE TOP