インテリジェント・プロセス・オートメーションの世界的リーダーであるABBYYは、透明性と説明責任のあるAIに向けた大きな一歩として、ForHumanity Europeと契約し、欧州連合の人工知能法(EU AI Act)の遵守に向けた強固な組織的・技術的対策への取り組みを開始しました。
ForHumanityとのプロジェクトは、2段階に分けて展開されます。まず最初の取り組みとして挙げられるのが、EU AI法(Article 9)に準拠した包括的なAIリスクマネジメントポリシーの策定です。さらに、EU AI法で求められるコンプライアンス義務について、その監査可能性や追跡可能性を実証できるように設計された、AIリスクアセスメント登録簿の導入も進めています。これにより、AIガバナンスにおける法的・倫理的・技術的な遵守を支える「生きた枠組み」が構築されます。
ABBYYのAIリスクマネジメントポリシーは、AIに関連するリスクを適切に管理するためのガイドラインとプロセスを定めたものです。適用される法規制やAIリスクマネジメントのフレームワークに準拠しながら策定されています。このポリシーは、AIの開発・導入・ガバナンスを責任ある形で進めることを保証するものです。倫理的・法的・規制上の基準に沿いながら、個人や社会へのリスクを軽減することを目的としています。このポリシーは、AIシステムにおける信頼性・透明性・説明責任を育みつつ、イノベーションを推進し、潜在的なリスクや被害を最小限に抑えることを目指しています。
ABBYYのAIリスクマネジメントポリシーには以下のような特徴はがあります。
- 透明性・説明責任・公正性・プライバシー・セキュリティ・人による監督といった、一般的に認められているAIリスクマネジメントの原則に従っています。これらはEU AI法(Chapter III)でも定められている基準です。
- 倫理・技術・セキュリティ・法務・運用といった多面的な観点から、AIに関連する潜在的なリスクを特定するための厳格なAIリスクマネジメント評価を実施。
- リスク評価プロセスと適切な管理の整備。その範囲は、データガバナンス、モデルの健全性や目的適合性(論理的妥当性の評価)、想定される利用ケースとの整合性、インターフェースや統合、パイプラインや運用環境、ヒューマン・イン・ザ・ループの仕組み、そしてAIシステムが生み出す成果にまで及びます。
- AIリスク登録簿(AI Risk Register)の作成を義務づけています。これはリスクの重大性・発生可能性・検出可能性に基づいて整理され、適切なリスク低減策の有効性を監査可能な形で示すものです。これにより、規制遵守や継続的なパフォーマンス監視、さらにはインシデントや不具合への迅速な対応が可能になります。
- AIシステムのパフォーマンス、リスク、そしてコンプライアンスを継続的に監視します。これには、自動化されたプロセスと人によるプロセスの両方が組み合わされています。
- ABBYYの指定担当者に明確な権限を委任し、AIポートフォリオのライフサイクル全体にわたってAIガバナンスとコンプライアンス監督を行える体制を整えています。これにより、組織全体に「信頼できるAI文化」を根づかせることを目指しています。
ABBYYのAIリスクマネジメントポリシーは、市場をリードするABBYYのインテリジェント・プロセス・オートメーション製品群を長きにわたって安心してご利用いただけるように設計されています。法的なコンプライアンスを満たすだけでなく、持続可能なAI活用を実現するための現実的かつ信頼できる基盤となることを目指しています。
詳しくお知りになりたい方は、ABBYY AI Trust Center にアクセスし、ABBYY AIリスクマネジメントポリシーにご登録のうえ、そちらで詳細をご覧ください。
現在、オンデマンド配信で6月12日に開催されたウェビナーをご覧いただけます。本ウェビナーは、ForHumanity、Law+Data、そしてABBYYが共催し、モデルリスクマネジメント認証制度をテーマとするものです。これは、米国連邦準備制度(FRB)のSR 11-7 モデルリスクマネジメントガイダンスを補完するもので、グローバルに調和した堅牢なAIガバナンス、監督、説明責任をAI・アルゴリズム・自律型(AAA)システムに組み込み、AI規制コンプライアンスに関するリスクを軽減するベストプラクティスを共有する内容です。さらに、コンプライアンス義務の監査可能性や追跡可能性を確保するための、規定されたプロトコルについても紹介しています。