信頼できる産業システムに向けて
DNV GLは産業界での検証プロセスやAIシステムのアシュアランス開発する際の考慮すべき見解を示したポジションペーパーを発表致しました。以下はその主なポイントの要約となります。
DNV GLは産業界の検証プロセスやAIシステムのアシュアランス開発する際に考慮すべきことについての見解を示したポジションペーパーを発表致しました。以下はその主なポイントの要約となります。AIシステムの信頼性は、特定の目標を達成するための意思決定や勧告を行う権限を委譲するリーダーや専門家、組織と大きな差がありません。AIシステムは、他の技術に使用するのと同じ品質保証の方法や原則に従うべきであると考えています。
エキスパートのレコメンデーションを評価する際の厳しさは、その事象の重要度合とその文脈に依存する。つまり、特定のAIシステムの展開に信頼を築くために必要な厳格さは、潜在的な結果の深刻さと確率に依存するということである。
社会におけるAIシステムの展開は、複雑さを導入し、デジタルリスクを生み出す。従来の機械システムの複雑さは、物理的な制約や自然の法則によって当然制限されていますが、統合されたソフトウェア駆動のシステムの複雑さは、必ずしも確立された工学的原則に従っているわけではないため、人間の理解力を容易に超えているように見えます。デジタル化に牽引されたこの複雑さの増大は、新たなリスクをもたらし、実質的な信頼のギャップを開くAI技術の統合によってさらに深化しています。
AIの信頼性に関する世界的な議論への貢献として、既存のサイバー物理システムやその他のデジタル資産へのAIの統合に焦点を当て、信頼性の高い産業用AIシステムの特徴を提示する。さらに、AI対応のデジタル資産が、デジタル資産自体の製品保証だけでなく、開発・展開プロセスの保証をどのように必要とするかを議論する。
欧州委員会が推奨しているように、我々はAIを "環境を分析し、特定の目標を達成するためにある程度の自律性を持った行動を取ることでインテリジェントな行動を示すシステム "と定義している。
信頼できるAIシステムとは、以下のような特徴を示すものと定義しています。
δ正当性の付与
δ委任されたタスクの実行能力と検証能力
δ適切な人間と機械の相互依存性
δ明確に定義された目的
δ関連する利害関係者への透明性
正当性
何よりもまず第一に、AIシステムは正当でなければなりません。その正当性は、アルゴリズムとモデルのトレーニング、データガバナンス、解決すべき問題に対する選択されたAIアルゴリズムの適合性、およびこの問題のコンテキストに関連する問題に依存します。コスト効率などのシステムの利点に関係なく、AIシステムの残留リスクがすべての利害関係者に受け入れられることを確立することが不可欠です。最終的には、AIの手法やツールの導入が正当であるかどうかは、システムが目的に適合しているかどうかと、リスク管理が核心に置かれているかどうかの両方にかかっています。
委任されたタスクを実行する能力と検証能力
リーダーや専門家、組織と同様に、確立された品質保証とパフォーマンスの原則に従って、AIシステムが能力があり、委任された仕事を実行する能力を持っていることを確立する必要があります。これには、その設計、展開、運用パフォーマンスが十分な品質と堅牢性を確保することが必要である。多くのAIアルゴリズムはブラックボックス的な性質を持っているが、説明可能性によって透明性を向上させることができる。最後に、これらすべての基準を組み合わせて、最終的に信頼性を検証するための適切な証拠を生成する必要があります。
適切な人間と機械の相互依存性
人と機械、機械と機械の相互作用と相互依存性は、細心の注意を払う必要があります。多くのサイバー物理システム(自動車、船舶、航空機からエネルギーシステムやパイプラインなどのインフラに至るまで)では、すでに多くの機能がより高いレベルの自律性にまで高められています。AIシステムの開発、展開、使用、保守に関わるエージェントと役割、および運用中のAIシステムによって影響を受ける外部の利害関係者をマッピングし、理解することが重要です。マシン間の相互作用を含め、これらすべてのタイプのエージェントと利害関係者の間の透明で理解しやすいコミュニケーションが、AIの信頼性を確保するための鍵となります。
目的の明確化
信頼性を確保するためには、産業用AIシステムを導入する動機や目的を開示する必要があります。この開示には、すべての利害関係者にとっての潜在的な利益とリス クを明らかにすることが含まれる。また、AI システムの動機と目的は、企業の説明責任プロセスに関連して評価される必要があります。
関連する利害関係者への透明性
AIシステムの信頼性についても、AIシステムが与える可能性のある影響を見て判断しなければなりません。倫理的考慮事項の大部分は、AIシステムが人々のプライバシー、差別、偏見のない意思決定などの権利に与える可能性のある影響に関連しています。産業上の安全性が重要なアプリケーションの文脈では、AIシステムの導入は、他の技術に共通するのと同じ影響評価方法の対象となる可能性があります。特定のAIシステムの影響を特定するには、異なるエージェントに責任を負わせ、意図的な行動と非意図的な行動を区別することが前提となります。最後に、AIシステムの影響は、システムのライフサイクルを通して継続的に監視されなければなりません。
DNV GLでは、デジタル資産の保証に関する継続的な取り組みから生まれたベストプラクティスとして、これらの「信頼性の高い産業用AIシステム」の特徴を提案しています。
また、AIシステムを含めたデジタルアセットに関するアシュアランスに取り組んでいます。学術界や産業界とのコラボレーションやパートナーシップに取り組み、新たな知見の構築や実際の使用ケースから学習を行っています。また、すでにデータや機械学習によるアシュアランスに特化したサービスを市場に提供しています。
執筆者
Asun St.Clair
哲学者であり社会学者でもあり、DNV GL Group Technology and Researchのシニア・プリンシパル・サイエンティスト。デジタルアセットの保証とAIガバナンスに焦点を当てています。また、バルセロナ・スーパーコンピューティングセンターの客員研究員であり、社会変革のためのホライゾン・ヨーロッパ・ミッション・ボードのメンバー。
Øyvind Smogeli
Øyvind Smogeli博士は、DNV GLグループの技術・研究部門でデジタル保証のプログラムディレクターを務めており、デジタル技術の利用と保証、およびその応用の両方を研究しています。主な研究分野は、デジタルツイン、シミュレーションエコシステム、自動運転、デジタル資産の保証、AIを用いた遠隔検査。
ご質問・お問い合わせは
神戸事務所(本部)【受付時間 土日祝を除く9:00-17:00】
078-291-1321 または japan.info@dnvgl.comまで
お気軽にお問い合わせください。
■DNV GLについて
DNV GLは、150年間続くあらゆるリスクマネジメントに関する様々な活動を行う先駆的国際機関として、世界100ヶ国以上、300の事務所、85もの様々な国籍を持つ16,000人のスタッフが認証、アセスメント、船級等々の分野でサービスを提供しています。積極的に研究開発へと継続的に投資しているため、従業員は高度な専門性と資格を有する集団としてサービスを提供することが可能となっています。