top of page

Legal Topics | Article

法務Topics

EUを超えた「責任あるAI」に関する新たなグローバル基準-高度なAIシステム開発に関するG7広島プロセス国際指針と日本における適用

この記事は、国際法曹協会(IBA)のウェブサイトにおいて発表された弊職の論稿 “New global norms on responsible AI beyond the EU: the G7 Hiroshima Process international guiding principles for developing advanced AI systems and its application in Japan”を和訳したものです。正確な内容は英語の原文をご参照ください。




ビジネスと人権の視点からの「責任あるAI」ルールの重要性


私たちは、人工知能(AI)によって加速化されるイノベーションの急速な進展を経験しており、生成AIや汎用AIが現在その最前線にあります。


AIは経済の発展を促進し、社会的な課題を解決する一方で、社会・人権に対する様々な負の影響をもたらす可能性があります。AIアルゴリズムの中にバイアスが潜在的に存在し、社会的に脆弱な人々に対する差別を助長する可能性があります。また、AIはプライバシー権や著作権を侵害する可能性もあります。AIによって労働者や消費者が脆弱な立場に置かれる懸念もあります。特にAIを利用した監視技術の濫用は市民の政治的自由を制限する可能性があります。AIによって拡散されるフェイクニュースも、特に紛争地域での対立や暴力を悪化させるリスクを抱えています。


AIによって引き起こされる上記のリスクに対処することは、ビジネスと人権(BHR)および責任あるビジネス行動(RBC)の観点からも非常に重要です。実際、AIのリスクへの懸念が高まる中で、特定の法域で責任あるAIに関するルールを形成する動きが迅速に進んでいます。これらのルールは、BHRおよびRBCに関する国際的なスタンダード、例えばビジネスと人権国連指導原則(UNGPs)や経済協力開発機構(OECD)の多国籍企業行動指針を参照しながら策定されることがよくあります。



規制の最前線に立つEU


EUは、責任あるAIの利用を確保し、AIの基本的人権に対するリスクに対処するために規制的なアプローチを採用しています。2023年12月には、欧州委員会、欧州議会、およびEU理事会の三者協議により、EU統一ルールとして、AI規則の内容が合意されました。欧州議会[2]およびEU理事会[3]が発表したプレスリリースによれば、AI規則は市民の基本的人権や民主主義に潜在的な脅威をもたらす特定のAI利用を禁止しています。さらに、同規則は、ハイリスクのAIシステムを開発する事業者に対して、AIシステムの導入前に基本的人権に対する影響の評価を実施する義務を課す予定です。


汎用AIに関しては、AI規則は、技術文書の策定、EUの著作権法の遵守、AIの学習に使用されるコンテンツについての詳細な要約の開示など、透明性に関する義務を課しています。高い影響を持つモデルにはより厳格な義務が適用される予定です。



高度なAIシステムに関するG7広島プロセス国際指針と行動規範


多くの国は、EUと同様に厳格なAI規制を採用することについて、規制がイノベーションを阻害することになるとの懸念により躊躇しています。しかしながら、高度なAIシステムの急速な開発を通じて、責任あるAIを確保する必要性が高まっています。このような背景の下、2023年10月、日本が議長を務めるG7の首脳は、広島AIプロセス包括的政策枠組に合意しました。


このフレームワークには、AIに関する国際指針とAI開発者向けの行動規範が含まれており、これらは「生成AIに関するG7の共通理解に向けたOECDレポート」[4]に基づいています。


広島プロセス国際指針[5]は、高度な AI システムの設計、開発、導入、利用に関与するすべてのAIアクターに適用される11の原則で構成されています。具体的には以下の通りです:

  1. 導入前および導入中にリスクを特定、評価、軽減するための適切な手段を講じる。

  2. 導入後に脆弱性、インシデント、誤用のパターンを特定し、緩和する。

  3. 透明性と説明責任確保のために能力、限界、適切・不適切な使用領域を公表する

  4. 責任ある情報共有とインシデントの報告に向けて取り組む。

  5. リスクベースのアプローチに基づく AI ガバナンス及びリスク管理方針を策定し、実施し、開示する。

  6. 強固なセキュリティ管理に投資し、実施する。

  7. 信頼できるコンテンツ認証及び来歴のメカニズムを開発し、導入する。

  8. リスクを軽減するための研究を優先し、効果的な軽減策への投資を優先する。

  9. 気候危機、世界保健、教育などの世界の課題に対処することを優先する。

  10. 国際的な技術基準の開発と採用を促進する。

  11. 適切なデータインプット対策を実施し、個人データ及び知的財産を保護する。


広島プロセス国際行動規範[6]は、上記の国際指針に基づいて、高度なAIシステムを開発する組織がとるべき具体的な行動の指針を提供しています。


特筆すべき点として、国際指針と行動規範の前文は、私企業の活動がBHRおよびRBCに関する国際的枠組み、UNGPsおよびOECDガイドラインと整合したものでなければならないことを明記していることです。これは、企業がUNGPsおよびOECDガイドラインで要求されるように、社会、特に人権に対するAIのリスクに対処するために人権デュー・ディリジェンスを実施し、実効的な苦情処理メカニズムを確立することが期待されていることを意味します。OECDガイドラインは2023年6月に改訂され[7]、企業が、AIを含む技術の開発、資金調達、販売、ライセンス、取引、使用にあたって、リスクベースのデュー・ディリジェンスを実施すべきことを明確にしています。



日本:AI事業者ガイドライン案の公表


G7広島プロセスAI文書に基づき、日本は、2023年12月、AI事業者ガイドラインの草案[8]を発表しました。政府は、このガイドラインを、パブリックコメントの結果をふまえ、2024年3月末までに最終化し、公表する予定です。


日本のAI事業者ガイドラインは5つの章に分かれています。第1章はAIに関連する定義を説明しています。第2章は、AIに関連する活動に従事するすべての事業者に適用される共通の原則とガイドラインを提示しています。第3章から第5章は、AI開発者、AI提供者、およびAI利用者向けの具体的なガイドラインを提供しています。


第2章で提示された共通のガイドラインは、さらに、すべてのAIシステムと生成AIなどの高度なAIシステムを対象にした2つの部分に分かれています。


すべてのAIシステムに対するガイドラインは、(1)人間中心、(2)安全性、(3)公平性、(4)プライバシー保

護、(5)セキュリティ確保、(6)透明性、(7)説明責任、(8)教育・リテラシー、(9)公正競争確保、および(10)イノベーションという10の原則で構成されています。これらの原則は、2019年に採択されたOECDのAI原則[9]および日本の人間中心のAI社会原則[10]に基づいています。


AI事業者ガイドライン案の「人間中心」に関する原則は、AI事業者がAIシステムの開発、提供、利用中に日本国憲法または国際的に承認された人権を侵害しないようにするべきであることを強調しています。なお、日本政府は、2022年にも、「責任あるサプライチェーン等における人権尊重のためのガイドライン」を公表し、企業に国際的に認識された人権を尊重するよう奨励しています。


高度なAIシステムのためのガイドラインは、企業に対して、上述したG7広島プロセスの国際指針と行動規範に準拠することを奨励しています。



企業の対処方法に関する示唆


AI技術の急速な発展に伴い、責任あるAIに関する規範と規制環境は引き続き進化する可能性があります。AIシステムの開発、提供、利用に関わる企業は、EUのAI規則、G7の国際指針、日本のAI事業者ガイドラインなど、適用されるルールに準拠すると同時に、将来の規制の発展にも注視する必要があります。


企業は、また、UNGPおよびOECDのガイドラインに準拠して、リスクベースの人権デュー・ディリジェンスを実施し、実効的な苦情処理メカニズムを確立することが重要です。これらの対策を通じて、企業は、社会や人権に対するAIのリスクを効果的に対処することができ、特に予測不能な規制環境の中にあっても、イノベーションを阻害することなく、透明性と説明責任を向上させることができるでしょう。


脚注


閲覧数:78回

留言


Latest article

最新記事

Areas

業務・研究分野