AIの基盤モデルとAI規則案修正(6月14日)

欧州議会が、AI規則案の修正を採択しました(2023年6月14日)。ロイターの記事はこちら。欧州議会のプレスリリースはこちらです。

プレスリリース

プレスリリースの翻訳は


この規則は、人間中心で信頼できるAIの取り込みを促進し、その有害な影響から健康、安全、基本的権利、民主主義を保護することを目的としています。

水曜日、欧州議会は、法律の最終的な形に関するEU加盟国との協議に先立ち、人工知能(AI)法に関する交渉見解を、賛成499票、反対28票、棄権93票で採択しました。この規則は、欧州で開発・使用されるAIが、人間の監視、安全、プライバシー、透明性、無差別、社会的・環境的ウェルビーイングを含むEUの権利と価値観に完全に合致することを保証するものです。

禁止されるAIの実践(プラクティス)

ルールはリスクベースのアプローチに従い、AIが発生させ得るリスクのレベルに応じて、プロバイダーとAIシステムを導入する者に義務を定める。そのため、ソーシャルスコアリング(社会的行動や個人的特徴に基づいて人を分類すること)に使用されるような、人々の安全に対して許容できないレベルのリスクを持つAIシステムは、禁止されることになります。欧州議会はリストを拡大し、以下のような侵入的で差別的なAIの利用を禁止することにした:

  • 公共の場における「リアルタイム」な遠隔生体認証システム;
  • 「事後の」遠隔生体認証システム(ただし、重大な犯罪の訴追のための法執行機関は例外で、司法の承認があった場合のみとする)
  • 機密性の高い特性(例:性別、人種、民族、市民権、宗教、政治的指向)を用いた生体認証分類システム;
  • 予測警察システム(プロファイリング、位置情報、過去の犯罪行動に基づいて);
  • 法執行機関、国境管理、職場、教育機関における感情認識システム、および
  • 顔認識データベースを作成するために、インターネットやCCTVの映像から顔画像を無制限にかき集めること(人権やプライバシーの権利を侵害する)。
高リスクのAI

欧州議会は、高リスクのアプリケーションの分類に、人々の健康、安全、基本的権利または環境に重大な害を及ぼすAIシステムが含まれるようにした。有権者や選挙結果に影響を与えるために使用されるAIシステムや、ソーシャルメディアプラットフォーム(ユーザー数4500万人以上)が使用するレコメンダーシステムが、ハイリスクリストに追加されました。

汎用AIに対する義務

AIの分野で新しく急速に発展している基盤モデルのプロバイダーは、EU市場で発売する前に、起こりうるリスク(健康、安全、基本的権利、環境、民主主義、法の支配に対する)を評価・軽減し、EUデータベースにモデルを登録する必要があります。ChatGPTのように、このようなモデルに基づく生成AIシステムは、透明性要件(AIが生成したコンテンツであることを開示し、いわゆるディープフェイク画像と本物の画像を区別することにも役立つ)を遵守し、違法なコンテンツを生成しないための安全策を確保する必要があるでしょう。また、トレーニングに使用された著作権保護されたデータの詳細なサマリーも公開されなければなりません。

イノベーションの支援と市民の権利の保護

AIのイノベーションを促進し、中小企業を支援するため、欧州議会は、研究活動やオープンソースライセンスで提供されるAIコンポーネントに対する免除を追加しました。新法は、AIを導入する前にテストするために公的機関が設置する、いわゆる規制のサンドボックス(現実の環境)を促進します。

最後に、欧州議会は、市民がAIシステムに関して苦情を申し立て、基本的権利に大きな影響を与えるリスクの高いAIシステムに基づく決定について説明を受ける権利を強化したいと考えています。また、欧州議会は、AIルールブックがどのように実施されるかを監視することを任務とするEU AIオフィスの役割も改革した。


修正事項については、こちらです。 なお、2021年4月21日の案についての翻訳(三部裕幸 訳)は、こちらです。

ということで、すこし時間が経ちましたが、この修正を中心に具体的にみていきます。基本的には、欧州議会の修正事項を前提に分析します。

(1) 立法の目的

Ai規則の目的は、EU法が認識しかつ保護する健康及び安全並びに基本権の保護などの公共の利益を高い水準で域内市場において保護しながら、それと同時に、域内市場における人工知能の開発、利用及び導入を後押しするということである。このために、人工知能についての調和の取れたルールを規定したEUの法的枠組みが必要であるとされている(前文(1)同(5))。その目的を達成するために、一定のAIシステムを市場に置くこと及び当該AIシステムのサービスを提供することを規制するルールを定めるべきであるとしています。これにより、域内市場が円滑に機能することを確保し、また、物品及びサービスの自由な移動に係る原則からこれらのシステムが利益を得られるようになるとしています。

(2) 同法の構成

同法案は、タイトル1 一般規定、タイトル2 禁止される人工知能運用行為(プラクティス)、タイトル3 ハイリスクAIシステム、タイトル4  タイトル5 イノベーション支援措置、タイトル6 ガバナンス、タイトル7 スタンドアロンのハイ リスクAIシステムに関する EUデータベース 、タイトル8 市販後モニタリング、 情報共有、 市場監視、タイトル9 行動規範 タイトル10 秘密保持および制裁、タイトル12最終規定からなりたっています。このうち、タイトル3までみていきます。

タイトル1 一般規定

同法は、(a) EUにおいて人工知能システム(「AIシステム」)を市場に置き、サービスを提供し及び利用することに関する調和の取れたルール (b) 一定の人工知能の実務の禁止 (c) ハイリスクAIシステムに関する特定の要件及び当該システムの事業者の義務 (d) 自然人と相互作用することが意図されたAIシステム、感情認識システム及び生体分類システム、並びに画像、音声又は動画コンテンツを生成し又は操作するために利用されるAIシステムに関する調和の取れた透明性に関するルール (e) 市場モニタリング及び監視に関するルール、(eb) 連合人工知能室(AI室)の設置および機能に関する規則を定めるものになります(1条)。適用範囲(2条)を定めると共に、定義(3条)が準備されています。

ここで、注目すべき定義としては、「人工知能システム」(AIシステム(3条(1))があります。そこでは、

付属書Iに列挙された技法及びアプローチの一つ又は複数をもって開発されたソフトウェアであって、人間が定めた一定の一連の目的のために、これらが相互作用する環境に影響を与えるコンテンツ、予測、推奨又は決定などのアウトプットを生成することができるものをいう

とされていたところ修正案では、

人工知能システム」(AI システム)とは、様々なレベルの自律性で動作するように設計され、明示的または暗黙的な目的のために、物理的または仮想的な環境に影響を与える予測、推奨、決定などの出力を生成できる機械ベースのシステム(machine-based system)をいう;

とされています。

ここで、付属書1がでてきますが、そこでは、

(a) ディープラーニングを含む様々な方法を用いた教師あり、教師なし及び強化学習を含む機械学習によるアプローチ

(b) 知識表現、帰納(論理)プログラミング、知識ベース、推論及び演繹エンジン、(記号)推論及びエキスパートシステムを含む論理ベース及び知識ベースのアプローチ

(c) 統計的アプローチ、ベイズ推定、検索及び最適化手法

が手法として指定されています。

また、修正案においては、

第4a条 すべてのAIシステムに適用される一般原則として、a) 「人間の代理と監督」、b) 「技術的な堅牢性と安全性」、c)「プライバシーとデータガバナンス」、d) 「透明性」、e)「多様性、非差別、公平性」、f) 「社会的・環境的な幸福」がくわえられています。

第4b条 AIリテラシーとして教育及び訓練、スキリング及びリスキルプログラムを通じて、適切な性別及び年齢のバランスを確保しつつ、教育及び訓練を通じて、部門を超えて、提供者、配置者及び関係者のグループの異なるニーズを考慮して、十分なレベルのAIリテラシーを開発するための措置をとること(1項)などのの条項が加えられています。

タイトル2 禁止される人工知能運用行為(プラクティス)

タイトル2は、禁止される人工知能運用行為(プラクティス)です。

5条においては、

  • (a)サブリミナルな技法の利用、
  • (b)年齢、身体的障害又は精神的障害による脆弱性のある特定の人々のグループに属するその者の行動を実質的に歪めるために、当該グループの人々の脆弱性を利用するAIシステムを市場に置き、サービスを提供し又は利用すること。
  • (c)公的機関が、又は公的機関のために、社会的な文脈における、一定の自然人又はそのグループ全体に対する有害な又は不利な取扱い AIシステムを市場に置き、サービスを提供し又は利用すること。
  • (d)公にアクセスできる場所において、「リアルタイム」遠隔生体識別システムを利用すること (修正によって絶対禁止が提案されている)、

があげられてたおり、以下、修正案では、

  • (da)自然人の プロファイリングに基づき、又は自然人若しくは自然人の集団の所在地を含む人格的特徴及び特性若しくは過去の犯罪行動の評価に基づき、自然人の犯罪若しくは再犯のリスクを評価するために、又は実際若しくは潜在的な犯罪若しくは行政犯罪の発生若しくは再発生を予測するために、自然人若しくはその集団をリスク評価するAIシステムを市場に投入、使用開始又は使用すること;
  • (db) インターネットやCCTV映像から顔画像を無対象に掻き集め、顔認識データベースを作成または拡張するAIシステムを市場に投入、使用開始または使用すること;
  • (dc) 法執行、国境管理、職場および教育機関の分野で、自然人の感情を推測するAIシステムを市場に投入、サービス開始または使用すること。
  • (dd) 「事後」遠隔生体認証システムを通じて公衆がアクセス可能な空間の記録映像を分析するためのAIシステムの使用開始または使用。ただし、EU法に従った事前司法承認の対象となり、法執行の目的で既に行われたTFEU第83条1項に定義される特定の重大犯罪に関わる標的捜査に厳密に必要である場合はこの限りではない。

があげられています。

タイトル3 ハイリスクAIシステム

これは、さらに 第1章 AIシステムのハイリスクとしての分類 、第2章 ハイリスクAIシステムの要求事項、第3章 ハイリスクAIシステムの提供者及び利用者並びにその他の者の義務、第4章 認定機関及び第三者認証機関 、第5章 規格、適合性評価、証明書、登録からできています。

3.1 ハイリスクAIシステムの効果

この場合には、関係者については、要求事項を満たすことがさだめられることになり、また、第3章 ハイリスクAIシステムの提供者及び利用者並びにその他の者の義務がかかることになります。

要求事項

これは、第2章ハイリスクAIシステムの要求事項でふれられています。具体的な要求事項としては、リスク管理システム(9条)、 データ及びデータガバナンス(第10条)-品質基準を満たす学習用、検証用及び試験用データセットに基づいて、 これを開発すること、技術文書の作成・維持義務(11条)、ログ保持義務(12条)、透明性・情報提供(13条)、人間による監視(14条)が定められています。

 これらの規定に関して、

  • データ及びデータガバナンス(第10条)において、透明性が求められるのと同時に、負のバイアスの検証が求められていること
  • ログ保持義務において、エネルギー消費の記録等の義務がもとめられるものと修正案ではされていること

などが注目されます。

関係者の義務

これは、第3章 ハイリスクAIシステムの提供者及び導入者(deploy)並びにその他の者の義務で論じられています。

提供者の義務として、

(a) ハイリスクAIシステムが市場に投入し又は使用開始する前に、この編第2章に定める要件を遵守することを確保 すること。
(a a) ハイリスクAIシステムに、又はそれが不可能な場合にはその付属文書に、適宜、その氏名、登録商号又は登録商標、及びその住所及び連絡先を表示する;
(a b) リスクの高いAIシステムの人的監視が割り当てられる自然人が、自動化または確証バイアスのリスクについて特に認識させられるようにする;
(a c) 意図された目的及びAIシステムの予見可能かつ合理的に予見可能な誤用を考慮し、入力データの仕様、又はその制限及び仮定を含む使用するデータセットに関するその他の関連情報を提供すること;
(b) 第17条の規定を遵守した品質管理システムを整備すること。
(c)第11条の ハイリスクAIシステムの技術文書を作成し、保管すること。
(d) ハイリスク AIシステムによって自動的に生成されたログが提供者の管理下 にある場合には、第20条に基づき、本規則の遵守を確保し証明するために必要な、 これを維持すること。
(e) ハイリスクAIシステムが第43条に基づき、市場への 、市場に置かれ又はサービスを提供する前に、関 係する適合性評価手続を経るように確保すること。
(e a)第48条に基づき、 EU適合宣言を作成する;
(e b) 第49条に基づき、本規則に適合していることを示すCEマーキングを高リスクAIシステムに貼付すること;
(f) 第51条に定める登録義務を遵守すること。
(g)第21条に定める ハイリスクAIシステムがこの編第2章に定める要件に適合していない場合に は、 必要な是正措置を講じること。

(j) 加盟国所管機関合理的なの要請に応じて、 ハイ リ スク AIシステムがこの編第2章に定 める要件に適合していることを証明すること。
(j a) ハイリスクAIシステムがアクセシビリティ要件に適合していることを確認する。

があります(16条)。

また、品質管理シツテムを整備する義務(17条)、自動生成ログの保管義務もあります(20条)。

また、システムが、本規則に適合しないと考えた場合または、そのように考える理由のある場合には、適合、取り下げ、無効化またはリコールの義務があります(21条)。また、監督官庁との協力義務もあります。これらの義務は、製造者も同様です(24条)。また、輸入者の義務(26条)、販売者の義務もさだめられています(27条)。

この関係者の義務を確保するための仕組みについては、第4章 認定機関及び第三者認証機関、第5章 規格、適合性評価、証明書、登録の規定があります。

第4章 認定機関及び第三者認証機関では、認定機関(30条)、適合性評価機関の認定の申請(31条)、認定手続(32条)、第三者認証機関(33条)などの規定があります。これらは、評価機関の認定についての仕組みで、これは、そもそも、規則(EC)No765/2008に定める仕組み(CEマーキングについては、リンク)であり、eIDAS規則や「機械指令」、「低電圧指令」などで採用されている仕組みです。

第5章 規格、適合性評価、証明書、登録では、整合規格 (40条)、共通仕様(41条)、一定の要件への適合性の推定(42条)、適合性評価(43条)、証明書(44条)、EU適合宣言書(48条)、適合性のCEマーキング(49条)、文書保持(50条)などの規定があります。

3.2 ハイリスクAIシステムの概念

第1章 AIシステムのハイリスクとしての分類では、分類のルール(6条)、付属書Ⅲの改正(7条)の規定があります。ここで、上のプレスリリースでみるように

高リスクのアプリケーションの分類に、人々の健康、安全、基本的権利または環境に重大な害を及ぼすAIシステムが含まれるようにした。有権者や選挙結果に影響を与えるために使用されるAIシステムや、ソーシャルメディアプラットフォーム(ユーザー数4500万人以上)が使用するレコメンダーシステムが、ハイリスクリストに追加されました。

となっています。分類のルール自体としては第6条1項で、付属書Ⅱ(具体的には、 玩具指令、娯楽用船舶等指令、昇降機等指令、無線機器指令、医療機器指令など)でさだめるもの以外については、2項で、

第1項にいう高リスクのAIシステムに加え、附属書Ⅲにいう重要分野及びユースケースの1つ以上に該当するAIシステムは、自然人の健康、安全又は基本的権利に害を及ぼす重大なリスクをもたらす場合、高リスクであるとみなされるものとする。

AIシステムが附属書Ⅲのポイント2に該当する場合、環境に害を及ぼす重大なリスクをもたらす場合は、高リスクであるとみなされるものとする。

欧州委員会は、本規則の発効6ヶ月前に、AI事務局及び関連する利害関係者と協議した上で、附属書IIIで言及されたAIシステムの出力が自然人の健康、安全又は基本的権利に害を及ぼす重大なリスクをもたらす状況又はそうでない場合を明確に特定したガイドラインを提供するものとする。

とされています。でもって、付属書Ⅲがどのような定め方をしているのか、また、改正提案によって、どのようになったかというのをみる必要がでてくるということになりす。

「付属書III 第6条第(2)項に定めるハイ リスク AIシステム」は、
第6条第(2)項に規定するハイリスクAIシステムとは、次のいずれかの分野に掲げるAIシステムをいう。

として具体的な仕組みをあげています。

これらは、以下のように図で示すことができます。

(3) 汎用AIに対する義務

 

Chat GPTに代表される生成系AIですが、プレスリリースでは、汎用AI(general purpose AI system)と呼称されています。もっとも、改正提案では、「基盤モデル」(foundation model)として呼ばれています。

1 リサイタルにおける追加

これについては、リサイタル(60e)以下が追加されています。そこでは、

(60e)基盤モデルは最近開発されたもので、AIモデルは、出力の汎用性と多用途性を最適化するように設計されたアルゴリズムから開発される。これらのモデルは、多くの場合、広範なデータソースと大量のデータで訓練され、特に開発・訓練されていないものも含め、幅広い下流タスクを達成する。基礎となるモデルはユニモーダルまたはマルチモーダルであり、教師あり学習や強化学習など様々な方法で学習される。特定の目的を持つAIシステムや汎用AIシステムは、基盤モデルの実装となり得る。つまり、各基盤モデルは、無数の下流AIシステムや汎用AIシステムで再利用できる。これらのモデルは、多くの下流のアプリケーションやシステムにとって重要性を増している。

(60f) APIアクセスなどのサービスとして提供される基盤モデルの場合、適切なリスク軽減を可能にするために、下流のプロバイダーとの協力は、そのサービスが提供され、サポートされる期間を通じて拡大すべきである、 ただし、基盤モデルの提供者が、トレーニングモデル、データセット及びシステムの開発プロセスに関する広範かつ適切な情報を移転するか、又はAPIアクセス等のサービスを制限することにより、川下提供者が基盤モデルの提供者からの更なる支援なしに本規則を完全に遵守することができる場合は、この限りではない。

(60g) AIシステムのバリューチェーンの性質と複雑さを考慮すると、AIシステムの開発に貢献するアクターの役割を明確にすることが不可欠である。基盤モデルがどのように発展していくのかについては、モデルの類型の点でも、自己統治の点でも、大きな不確実性がある。したがって、基盤モデルの提供者の法的状況を明確にすることが不可欠である。その複雑性と予期せぬ影響、下流のAIプロバイダーが基盤モデルの開発をコントロールできないこと、その結果生じる力の不均衡、そしてAIのバリューチェーンに沿った責任の公正な分担を確保することを考慮すると、このようなモデルには、本規則に基づき、相応かつより具体的な要件と義務を課すべきである、 すなわち、基盤モデルは、適切な設計、テスト、分析を通じて、起こりうるリスクと危害を評価し、軽減すべきであり、バイアスの評価を含むデータガバナンス対策を実施すべきであり、適切なレベルの性能、予測可能性、解釈可能性、適格性、安全性、サイバーセキュリティを確保するための技術的設計要件を遵守すべきであり、環境基準を遵守すべきである。これらの義務は、基準を伴うべきである。また、基盤モデルは情報提供義務を有し、潜在的な川下プロバイダーが本規則に基づく義務を遵守できるよう、必要な技術文書をすべて準備すべきである。生成基盤モデルは、コンテンツが人間ではなくAIシステムによって生成されたものであることの透明性を確保すべきである。これらの具体的な要件と義務は、基盤モデルを高リスクのAIシステムとみなすことにはならないが、基本的権利、健康と安全、環境、民主主義、法の支配の高水準の保護を確保するという本規則の目的が達成されることを保証するものでなければならない。単純な多目的AIシステムのような、幅広いタスクに適応できない、より狭く、より一般的でなく、より限定されたアプリケーションのために開発された事前訓練済みモデルは、本規則の目的上、基礎モデルとはみなされるべきではない。

(60h) 基盤モデルの性質を考えると、適合性評価に関する専門知識は不足しており、第三者による審査方法はまだ開発途上である。そのため、この分野自体も、監査の目的を部分的に満たすような基盤モデルの新しい評価方法(モデル評価、レッドチーム、機械学習による検証・妥当性確認技術など)を開発している。基盤モデルの内部評価は、(例えば、流通チャネル、モダリティ、開発方法から独立して)広範に適用可能であるべきであり、業界の最先端の慣行を考慮して、そのようなモデルに特有のリスクに対処し、モデルに対する十分な技術的理解と管理、合理的に予見可能なリスクの管理、独立した評価者の関与などの適切な手段を通じたモデルの広範な分析とテストに重点を置くべきである。基盤モデルは、人工知能の分野において新しく、かつ急速に発展しているものであるため、欧州委員会とAI室が、このようなモデル、特に、EU法、著作権規則、および潜在的な悪用に違反するコンテンツの生成に関連する重大な問題を提起する、このようなモデルに基づく生成的AIシステムの法制およびガバナンスの枠組みを監視し、定期的に評価することは適切である。本規則は、欧州議会および理事会の指令2001/29/EC、2004/48/ECRおよび(EU)2019/790を含む、著作権および関連する権利に関する連邦法を損なうものではないことを明確にすべきである。

とされています。

2 定義の追加

条文的には、3条 (定義)に関して

(1c)「基盤モデル」とは、広範なデータに対して大規模に学習され、出力の汎用性を考慮して設計され、広範な特徴的なタスクに適応可能なAIシステムのモデルを意味する;

(1d)「汎用AIシステム」とは、意図的かつ特別に設計されたものではない広範な用途に使用および適応可能なAIシステムを意味する;

と定義が追加されています。

3 起こりうるリスクの評価・軽減

改正提案では、28b条が定められており、同条は、基盤モデルの提供者の義務として

1. 基盤モデルの提供者は,それを市場で入手可能にするか又はサービスに供する前に,それがスタンドアロンモデルとして提供されるか,AIシステム若しくは製品に組み込まれるか,又はフリー及びオープンソースライセンスの下で提供されるか,サービスとして提供されるか,及びその他の流通経路として提供されるかにかかわらず,それが本条に定める要件に準拠していることを確実にしなければならない。

2. 第 1 項の目的のため、基盤モデルの提供者は、以下を行わなければならない:

(a) 健康、安全、基本的権利、環境、民主主義及び法の支配に対する合理的に予見可能なリスクを、適切な設計、試験及び分析を通じて、独立した専門家の関与など適切な方法によ り、開発前及び開発全体を通じて特定し、低減し、軽減すること、並びに開発後に残存する軽減できな いリスクを文書化することを実証すること、

(b) 基盤モデルのための適切なデータガバナンス対策,特に,データソースの適合性, 可能性のある偏り及び適切な緩和策を検討するための対策の対象となるデータセットのみを処理し,取り込むこと。

(c) 独立した専門家の関与によるモデル評価,文書化された分析,概念化,設計及び開発中の広範なテストなどの適切な方法を通じて評価された,性能,予測可能性,解釈可能性,適格性,安全性及びサイバーセキュリティの適切なレベルを,そのライフサイクル全体を通じて達成するために,基盤モデルを設計及び開発する;

(d) エネルギー使用,資源使用及び廃棄物を削減し,エネルギー効率及びシステム全体の効率を向上させるために,適用される規格を活用しながら,関連する既存のEU法及び国内法に抵触することなく,基盤モデルを設計及び開発すること。この義務は、第40条で言及される基準が公表されるまでは適用されない。

(e)川下供給者が第 16 条及び第 28 条(1)に基づく義務を遵守できるよう、広範な技術文書及び分かりやすい使用説明書を作成すること。

(g) 附属書VIIIポイントCに概説されている指示に従い、第60条で言及されているEUデータベースに当該基盤モデルを登録すること。これらの要件を満たす場合,関連する整合規格又は共通仕様に反映されているもの,並びに,特に第 58a 条にいうベンチマークガイダンス及び能力に反映されている最新の評価及び測定方法と同様に,一般に認められ ている技術の現状を考慮に入れなければならない。

3. 基盤モデルの提供者は,その基盤モデルが上市され又は使用開始されてから 10 年を経過する期間,第 2 項(e)にいう技術文書を国家主務当局の自由になるように保管しなければならない。

4 複雑なテキスト,画像,音声又は映像のようなコンテンツを,様々なレベルの自律性をもって生成することを特に意図したAIシステム(「生成的AI」)で使用される基盤モデルの提供者及び基盤モデルを生成的AIシステムに特化する提供者は,以下のような方法で、学習を行い,該当する場合には,基盤モデルを設計し,開発する、

a)第52条(1)に概説される透明性の義務を遵守し,

b)一般に認識されている最新の技術水準に沿い、かつ、表現の自由を含む基本的権利を損なうことなく、EU法に違反するコンテンツの生成に対する適切なセーフガードを確保するような方法で、訓練し、該当する場合には、基盤モデルを設計し、開発すること。

c) 著作権に関するEU法または国内法または連合法に反することなく、著作権法の下で保護される学習データの使用に関する十分に詳細な概要を文書化し、一般に公開すること。

と定めています。

4 EUデータベースにモデルの登録

上記2項(e)は、EUデータベースに当該基盤モデルを登録することを求めています。ここで引用されている60条は、

AIシステムに関するEUデータベース 欧州委員会は、第51条に従って登録される第6条第(2)項に定めるハイリスクAIシステムに関する、 【この条】 第2項に定める情報が登載されたEUデータベースを、 EU加盟国と共同して設置し及び維持するものとする。(略)

というものです。

5 生成AIシステムと透明性要件(AIが生成したコンテンツであることを開示し、いわゆるディープフェイク画像と本物の画像を区別することにも役立つ)

また、ここで、とくに「生成AI“generative AI”」についての議論がなされます。生成AIというのは、それ自体としての定義はないのですが、上でみたように複雑なテキスト,画像,音声又は映像のようなコンテンツを,様々なレベルの自律性をもって生成することを特に意図したAIシステムとされています。

この場合、第52条(1)に概説される透明性の義務を遵守することが求められます。同条は

提供者は、 自然人と相互作用することを意図されたAIシステムがプロバイダー自体、またはユーザーが、 AI システムにさらされている自然人にAIシステムと相互作用していることを知らせる方法で設計及び開発されることを確保するものとする。
ただし、使用の状況及び文脈からAIシステムと相互作用していることが明らかなときは、 この限りでない。
適切かつ関連する場合、この情報には、どの機能が AI 対応であるか、人間の監督がある場合、意思決定プロセスの責任者は誰か、また連合法および国内法に従って、既存の権利とプロセスの責任者も含まれるものとします。(略)

とされています。

6 違法なコンテンツを生成しないための安全策を確保/ トレーニングに使用された著作権保護されたデータの詳細なサマリーの公開

これは、4項b)およびc)そのままです。

7 イノベーションの支援と市民の権利の保護

AIのイノベーションを促進するとしており、第Ⅴ編が、イノベーション支援措置です。

中小企業を支援するため、欧州議会は、研究活動やオープンソースライセンスで提供されるAIコンポーネントに対する免除として、54a条において、社会的・環境的に有益な成果を支援するAIの研究開発の推進という規定を定めています。

新法は、AIを導入する前にテストするために公的機関が設置する、いわゆる規制のサンドボックス(現実の環境)を促進するとしています(53条)。

関連記事

  1. 最後の講義「石黒浩教授」とホモ・デウス
  2. Jarvisに制裁金が課される(イタリアのデータ保護機関によりA…
  3. 松尾先生の「Chat GPTと法律実務」をおすすめします
  4. サイバー影響工作の定義-CSS CYBER DEFENSE “C…
  5. E.Jensen 「武力紛争における『ディープフェイク』適法か?…
  6. チャットボットを作るときに気を付けるべき唯一つのこと
  7. 「人工知能の発展と企業法務の未来(1)」NBL角田論文を読んで
  8. 大門未知子は、2045年にコロンブスに勝てるのか?-手術支援ロボ…
PAGE TOP