英国の情報コミッショナー(ICO)がAIとデータ保護のガイダンスを公表しており、ブログで記事が出ています。
ブログは、こちら。
ICOは、5月5日に「「コロナウイルス公衆衛生緊急時におけるICOの規制アプローチ」というドキュメントを公表しており、
私たちは、私たちの行動が組織に与える可能性のある経済的・資源的負担の影響を考慮し、柔軟なアプローチで対応します。
– 私たちは、公衆衛生上の緊急事態からの回復に向けて、企業や公的機関を最大限に支援する準備ができています。
としてきたところです。このドキュメントを公表したブログで、デンハム情報コミッショナーは、今後、
- 公共の利益の保護:私たちは、市民や企業に最も害や苦痛を与える可能性の高い情報権の問題に焦点を当てています。
- 責任あるデータ共有を可能にする: 共有ができないことから生じるリスクへの対応を含め、公共の利益のためにデータが責任を持って、信頼を持って共有できるようにします。
- 侵入的で破壊的な技術の監視:私たちはプライバシーを確実に保護しながら、イノベーションを可能にし、経済をサポートします。
としました。
そして、
1. 弱い立場にある市民を守る
2. 中小企業を含む経済成長とデジタル化の支援
3.適切なサーベイランスの形成
COVID-19の中期的なプライバシーと情報権利への影響について、コンタクトトレース、テスト、その他の新たなサーベイランス問題を含めて、高いレベルの認識と洞察力を維持しています。
4. AIにおけるグッドプラクティスを可能にする
私たちは、消費者製品からサーベイランスアプリケーションまで、デジタル経済全体でのAIの使用にプライバシーへの配慮が設計されていることを保証するために、COVID-19に対応したAIの継続的な開発と使用を準備し、形成しています。
5. 透明性を可能にする
6 事業継続性の維持:復旧に備えた新しい働き方の開発
という事項を掲げています。そこで、「AIにおけるグッドプラクティスを可能にする」という課題のための一つとして、掲げられたのがこのガイダンスということになります。
このガイダンスは、
このガイダンスには、この技術の使用によって引き起こされたり、悪化したりするリスクを軽減するために、組織が使用できるベストプラクティスと技術的手段に関する推奨事項が記載されています。これは、現在のAIの実践を反映したものであり、実際に適用可能です。
というものです。
ガイダンスは、こちらです。
序分きエグゼクティブサマリを機械翻訳します。
-----
序文
このガイダンスを読んでいる人なら誰もが、AI の革新性、機会、社会への潜在的な価値については強調する必要はないでしょう。
また、個人データの処理を不透明なアプローチやアルゴリズムを持つ複雑なコンピュータ・システムに移行させる技術の使用に伴う様々なリスクを強調する必要もないでしょう。
このガイダンスは、組織がデータ保護の観点から特に生じるリスクを軽減し、そのようなプロジェクトが提供できる利益を見失うことなく、データ保護の原則がAIプロジェクトにどのように適用されるかを説明するのに役立ちます。
データ保護の基本的な問題は、最も複雑なAIプロジェクトであっても、どのような新しいプロジェクトでも同じであるということは、以下のページで特に注目すべき点です。データは公正、合法、透明性を持って使用されているか?人々は自分のデータがどのように使用されているかを理解しているか?データはどのように安全に保管されているか?
例えば、説明責任の法的原則は、顧客の連絡先詳細の単純な登録を実行しているか、将来の消費者の需要を予測するために高度なAIシステムを運用しているかにかかわらず、組織が個人データの処理から生じるリスクを説明することを要求しています。
ガイダンスのいろいろな面は、AIプロジェクトを実行している人にとって、メモワールのような役割を果たすべきである。データ保護の影響評価や意思決定を文書化することが要求事項とされることに驚きはないはずです。ガイダンスは、この作業にどのようにアプローチするのが最善かについてのサポートと方法論を提供している。
法律の他の側面については、より深く考える必要がある。例えば、データの最小化は、大規模なデータセットからどのような情報が必要かを機械学習が結論づけるシステムとは相容れないように思われるかもしれません。しかし、ガイダンスが示しているように、これは、かならずしも対立するものではなく、組織が目的に必要な個人データのみを確実に処理できるようにするための技術がいくつかあります。
同様に、処理の透明性、差別の緩和、自動化された意思決定の可能性に関する個人の権利の確保は、難しい問題を提起する可能性があります。これらの側面は、2020年5月にアラン・チューリング研究所とともに発表された既存のガイダンス「AIガイダンスによる意思決定の説明」によって補完されています。
これらの困難な分野に共通している要素、そしておそらくは、早い段階での成果となることは、データ保護を検討することの価値です。リスクの軽減は設計段階で行わなければなりません。プロジェクトの最終段階においてコンプライアンスをボルトで後付けすることは、快適なコンプライアンスや実用的な製品につながることはほとんどありません。このガイダンスは、データAIのアプローチを利用している人々に最終的に利益をもたらすような形で、コンプライアンスとの早期の関わりを伴うものでなければなりません。
私たちの社会におけるAIの開発と使用は成長し、進化しており、長い旅の初期段階にあるように感じます。私たちは、この基礎となるガイダンスを基にして、AIの開発とプライバシーへの影響に焦点を当て、AIを開発・利用する人々にデザインによるプライバシーを促進するツールを提供し続けていきたいと思います。
最後に、この文書の執筆者の一人であるルーベン・ビンズ教授の優れた仕事ぶりに感謝の意を表して終わりにしたい。Binns 教授は、AI の優れた実践を可能にするという戦略的優先事項の一環として、この複雑な分野の理解を深めることを目的としたフェローシップ制度の一環として ICO に参加しました。ビンズ教授がオックスフォード大学のコンピュータサイエンス准教授としてのキャリアを継続されることを祈念しています。
----
エグゼクティブサマリ
人工知能(AI)の応用は、私たちの生活の多くの側面にますます浸透しています。私たちは、AIがもたらす明確なメリットだけでなく、個人の権利や自由を脅かすリスクも理解しています。
そこで私たちは、データ保護コンプライアンスのベストプラクティスに焦点を当てた、AI監査のためのフレームワークを開発しました。このフレームワークは、AIアプリケーションを監査し、個人データを公正に処理するための明確な方法論を提供します。これは、以下の内容で構成されています。
- 監査と調査で使用する監査ツールと手順。
- AIとデータ保護に関するこの詳細なガイダンス
- 組織が独自のAIシステムのコンプライアンスを監査する際に、より実践的な支援を提供することを目的としたツールキットです(近日公開予定)。
このガイダンスは、2つの対象者を対象としています。
- データ保護責任者(DPO)、顧問弁護士、リスク管理者、上級管理職、ICO の監査人など、コンプライアンスに重点を置いている人、および
- 機械学習の専門家、データサイエンティスト、ソフトウェア開発者やエンジニア、サイバーセキュリティやITリスク管理者を含むテクノロジーの専門家
を対象としています。
このガイダンスでは、データ保護の観点からAIがもたらす権利と自由に対するリスクをどのように評価できるか、また、それらを軽減するために実施できる適切な対策を明確にしています。
データ保護と「AI 倫理」は重複しますが、このガイダンスは、AI の使用のための一般的な倫理原則や設計原則を提供するものではありません。データ保護の原則に対応しており、以下のように構成されています。
- パート1では、データ保護の影響評価(DPIA)を含む、AIにおける説明責任とガバナンスを扱う。
- パート2では、合法的な根拠、AIシステムのパフォーマンスの評価と改善、潜在的な差別の緩和など、公正で合法的かつ透明性のある処理を取り上げています。
- パート3では、データの最小化とセキュリティを取り上げています。
- パート4では、自動化された意思決定に関連する権利を含む個人の権利の遵守をカバーしています。
説明責任の原則は、データ保護を遵守し、あらゆるAIシステムでその遵守を実証する責任を負わせるものです。AIのコンテキストでは、アカウンタビリティは以下のことを要求します。
- システムのコンプライアンスに責任を持つこと。
- システムのリスクを評価し、軽減する
- システムがどのように準拠しているかを文書化して実証し、行った選択を正当化する。
使用する予定のシステムの DPIA の一部として、これらの問題を考慮する必要があります。個人データを処理するAIシステムを使用する場合、大多数のケースでは、DPIAを完了することが法的に求められていることに注意してください。DPIAは、個人データを処理するためにAIシステムを使用する方法と理由、そして潜在的なリスクは何かを検討する機会を提供します。
また、管理者と処理者の関係を特定し、理解するために注意を払う必要があります。これは、AIサプライチェーンに一般的に関与する様々な種類の処理の複雑さと相互依存性に起因しています。
AIシステムに関連して、データ保護の権利とその他の基本的権利との間で必要なバランスを取るためには、必然的に競合する様々な考慮事項や利益を考慮する必要があります。設計段階では、これらが何であるかを特定し、評価する必要があります。そして、処理の目的や個人の権利や自由にもたらすリスクとの関連で、それらをどのように管理するかを決定する必要があります。ただし、AIシステムが個人データを処理する場合は、基本的なデータ保護原則を常に遵守しなければならず、この要件を「取引」することはできないことに注意する必要があります。
AI を使用して個人データを処理する場合は、それが合法的、公正、透明性のあるものであることを確認しなければなりません。これらの原則を遵守することは、AIの文脈では困難な場合があります。
AIシステムは、既知のセキュリティリスクを悪化させ、管理をより困難にする可能性があります。また、データ最小化の原則を遵守することも困難になります。
AIが増加させる可能性のある2つのセキュリティリスクは、以下の可能性です。
- AIシステムを訓練するためにしばしば必要とされる大量の個人データの損失や誤用。
- 新たなAI関連のコードやインフラの導入に伴って導入されるソフトウェアの脆弱性。
デフォルトでは、AIの開発と配備のための標準的なプラクティスには、大量のデータを処理することが含まれています。これは、データ最小化の原則を遵守できないリスクがある。データの最小化と効果的なAIの開発と配備の両方に役立つ技術がいくつか存在する。
AIシステムが開発・展開される方法は、個人データが異常な方法で管理・処理されることが多いことを意味します。このため、個人の権利がいつ、どのようにこのデータに適用されるかを理解することが難しくなり、個人が権利を行使するための効果的なメカニズムを実装することが難しくなる可能性があります。
----
あとは、個別で論じられています。
総論的には、AIの戦略的重要性、定義、他のICOの報告との関係などが注目かと思われます。
説明責任の意義のガイダンスでは、リスクアプローチの手法、影響評価の概念と手法、管理者(コントローラー)の重要性、トレードオフのマネージメントなどの論点が触れられています。
AIシステムの取扱いの適法性、公平性、透明性を確かにするためには、のガイダンスでは、どのようにそれら原則が適用されるのか、目的をどのように特定するのか、統制的な正確性についてどのようにするのか、偏見や差別のリスクをどう評価するのか、という議論がなされています。
AIにおけるセキュリティやデータ最小化の議論もあります。セキュリティリスクが何か、AIモテルに適用されるプライバシー攻撃、どのようなステップでリスクを管理するのか、データ最小化等の手法の活用が論じられています。
具体的な攻撃手法として「モデル反転攻撃」と「メンバーシップ推論攻撃」があげられています。
これからの防護のためのステップのガイダンス等もなされていて、参考になります。が、詳細は、また、別の機会に。
AIシステムにおける個人の権利を確実にするために、というガイダンスが最後になります。
このガイダンスは、AIライフサイクルにおける適用、特に、トレーニング段階における個人の権利の問題、アウトプットにおける権利の問題、モデル自体における個人の権利の問題などがあり、それぞれに対する議論が展開されています。それぞれ興味深い問題ですが、詳しく検討するのは、また、別の機会になるかと思います。
---
数年前のSF映画のAI問題から、現実の技術としてのAI技術の個別の問題へと問題が現実化しているのがわかります。このガイダンスは、参考文献へのリンクも充実しているので、この問題について興味を持つ人の必読ガイダンスといえるようにみえます。