Skip to content

AIに関する規格 ISO/IEC 42001 がリリースされます

企業や組織が堅牢な人工知能 (AI) ガバナンス フレームワークを開発できるよう支援することを目的として、AI 管理システムに関する ISO/IEC 42001 が発行されました。

 

 

 

製品やサービスのプロバイダーによる人工知能 (AI) の採用が増加していることにより、新しいテクノロジーに対する不信感も高まっています。 ISO/IEC 42001 は、AI の安全かつ信頼性の高い開発と実装のための初の国際的なマネジメントシステム規格です。

 

DNV のグローバル ICT 産業マネージャーであるトーマス・ダグラス氏は、新しい規格を歓迎し、次のように述べています。
「AI テクノロジーとそのアプリケーションに関する標準の必要性は明確かつ明確です。これは、リスクを管理し、組織とユーザー間の信頼を育む効果的で安全かつ倫理的なアプリケーションを保証するのに真に役立ちます。私たちは、それがついに実現したことを嬉しく思い、組織の進歩にどのように役立つかに興奮しています」

 

組織は AI によってもたらされる機会を把握することに注力しています。しかし、利害関係者の懸念に対処し、新たなリスクや規制に対応するには注意が必要です。 AI に関する懸念の一部に対処するために、次期 EU AI 法など、AI の使用を管理する法律や規制の導入または計画を進めており、現在は EU 委員会、理事会、議会による立法プロセスの後期段階にあります。

 

新しい標準は、組織が最大限の利益を得ることができると同時に、システムが開発され、責任を持って管理されていることを関係者に安心させる、認定可能な AI 管理システム フレームワークの要件を提供します。

 

たとえば、ISO/IEC 42001 は、品質管理に関する ISO 9001 や情報セキュリティに関する ISO 27001 と同様のアプローチを採用し、リスクと運用面を管理するためのベスト プラクティス、ルール、定義、ガイダンスを提供します。

 

ISO/IEC 42001 の目的は次のように要約できます。

 

信頼性、透明性、説明責任を備えた AI システムの開発と使用を促進します。

AI システムを導入する際には、利害関係者の期待に応えるために、公平性、無差別、プライバシーの尊重などの倫理原則と価値観を強調します。

組織が AI 導入に関連するリスクを特定して軽減できるよう支援することで、効率が向上し、コストが削減されます。

データ保護要件を含む規制コンプライアンスを維持します。

AI の設計と導入において人間の幸福、安全、ユーザー エクスペリエンスを優先するよう組織に奨励することで、AI 管理に対する信頼を高めます。

 

トーマス ダグラス氏:

「AI テクノロジーは非常に大きな可能性を秘めていますが、他のイノベーションと同様、効果を発揮するには責任を持って実装する必要があります。DNV はマネジメント システム認証機関として、顧客が AI のアプリケーションに対する信頼を築けるよう協力することに熱心に取り組んでいます」