NIST AI Risk Management Framework 1.0 の使い方

Picsum ID: 191

NIST AI Risk Management Framework 1.0 の使い方

2023年1月、米国国立標準技術研究所(NIST)が公表した AI Risk Management Framework 1.0(AI RMF 1.0)[1] は、AIシステムのリスクをライフサイクル全体で統制する事実上のグローバル標準となった。法的拘束力を持たない自主的フレームワークでありながら、米連邦政府の調達基準、ISO/IEC 42001、日本の経産省「AI事業者ガイドライン」[2] にまで影響を及ぼしている。本稿は、CISO・経営層・法務責任者を読者と想定し、AI RMF 1.0 の構造、Generative AI Profile(NIST AI 600-1)[3] の追補内容、Trump 政権下での EO 14110 撤回後も同フレームワークが有効である理由、日本企業の実装手順を解説する。

NIST AI RMF 誕生の背景

AI RMF の起源は、2020年に米連邦議会が成立させた National AI Initiative Act[4] である。同法は NIST に対し、信頼できるAI(Trustworthy AI)の自主的リスク管理フレームワーク策定を命じた。NIST は2021年7月から RFI を開始し、4回のワークショップを経て2023年1月26日に Version 1.0 を公開した[1]

背景にあるのは、AI特有のリスクが従来の IT リスクマネジメント(NIST CSF 2.0、SP 800-53)[5] では捕捉しきれないという問題意識だ。学習データのバイアス、モデルドリフト、説明可能性の欠如、敵対的攻撃、社会的外部不経済——これらは技術的統制だけでなくガバナンスを含む統合的アプローチを要する。AI RMF はこの要請に応え、信頼性の7特性(Valid & Reliable, Safe, Secure & Resilient, Accountable & Transparent, Explainable & Interpretable, Privacy-Enhanced, Fair)を定義し、EU AI Act[6] や OECD AI 原則[7] と相互参照可能な共通言語として設計された。

4機能(Govern, Map, Measure, Manage)の詳細解説

AI RMF 1.0 のコアは 4つの機能であり、合計19カテゴリ・72サブカテゴリで構成される[1]

Govern(統治):他の3機能を貫く土台。経営層のコミットメント、AIリスク方針、役割と責任、サードパーティAIのリスクポリシー、インシデント対応、文書化と監査証跡を組織文化に組み込む。CISO・法務にとって最も馴染み深い領域である。

Map(特定):AIシステムが置かれる文脈を理解し、リスクを特定する機能。「ユースケースの目的」「影響を受ける人・コミュニティ」「想定外の使用」を文書化し、ライフサイクルの早期に「やらない判断(go / no-go)」を下す。Map を疎かにした組織は後段で必ず破綻する。

Measure(測定):性能指標に加え、公平性メトリクス(Demographic Parity 等)、ロバストネス、説明可能性、プライバシー漏洩リスクを定量・定性で評価する。テストセットでの一回測定ではなく、本番運用中のドリフト監視・レッドチーミング・第三者監査を組み込むことが核心だ。

Manage(管理):測定結果に基づきリスクを優先順位付けし、軽減・移転・受容・回避を判断する。残余リスクの開示、停止・ロールバック手順、変更管理、廃棄プロセスまで含む。経営判断と技術緩和策が交差する意思決定の現場である。

これら4機能の運用を支えるのが NIST AI RMF Playbook[8]。各サブカテゴリに「推奨アクション」「文書化例」「参考文献」を提供し、コミュニティのフィードバックで継続更新される生きた文書である。

Generative AI Profile(NIST AI 600-1)の追補

2023年10月の Biden 政権 Executive Order 14110[9] を受け、NIST は2024年7月26日に NIST AI 600-1「Generative AI Profile」[3] を公表。AI RMF のクロスセクター・プロファイルとして、生成AI固有の12リスクを列挙する。

  1. CBRN(化学・生物・放射性・核)情報悪用
  2. コンフェビュレーション(hallucination)
  3. 危険・暴力・憎悪コンテンツ生成
  4. データプライバシー侵害
  5. 環境影響(電力・水資源)
  6. 有害バイアスと均質化
  7. ヒューマン-AIコンフィギュレーション(過信・自動化バイアス)
  8. 情報統合性(ディープフェイク・誤情報)
  9. 情報セキュリティ(プロンプトインジェクション・モデル抽出)
  10. 知的財産(学習データ著作権)
  11. 不適切な性的コンテンツ・CSAM
  12. バリューチェーンとコンポーネント統合(基盤モデル依存)

各リスクに4機能ごとの推奨アクションが200超紐づけられており[3]、生成AI導入企業の実装チェックリストとして直接利用できる。第9項プロンプトインジェクションと第10項学習データ著作権は、日本企業の法務・セキュリティ部門が現在最も論点化している領域である。

導入手順(Map → Measure → Manage の実践)

Step 1: Map — ユースケース仕様書を作成。「目的」「対象ユーザー」「意思決定への影響度」「想定外の使用」「代替手段」を明記。NIST 推奨の AI Use Case Inventory テンプレート[10] を社内ポータルに登録し、新規AI案件は登録から開始する。

Step 2: Measure — 性能・公平性・ロバストネス・説明性・プライバシーを「定量メトリクス+定性レビュー」のハイブリッドで測定。MIT が公開する AI Risk Repository[11](700超のリスクを7ドメイン・23サブドメインで整理)を参照すると抜け漏れが減る。

Step 3: Manage — リスクを優先順位付けし、緩和策を実装。残余リスクは経営層に文書承認を取る。リリース後は四半期ごとにドリフト監視・インシデント振り返り・レッドチーミングを回し、Govern にフィードバックする。NIST 主催の AI Safety Institute Consortium(AISIC)[12](OpenAI・Anthropic・Microsoft 等280超組織が参加)はベンチマーク共有で有用だ。

ISO/IEC 42001・経産省ガイドラインとの関係

2023年12月、ISO/IEC は 42001:2023 AI Management System[13] を発行。ISO 27001 と同型のマネジメントシステム規格で、第三者認証が可能な点が AI RMF との最大の違いだ。両者は補完関係にあり、NIST 自身が「AI RMF と ISO/IEC 42001 のクロスウォーク」[14] を公表している。実務では ISO 42001 で組織のマネジメントシステム認証を取得し、AI RMF Playbook で個別ユースケースの実装を行うのが現実解である。

日本では経産省・総務省が2024年4月に「AI事業者ガイドライン(第1.0版)」[2] を公表、2025年3月に第1.1版へ改訂した[15]。同ガイドラインは「開発者・提供者・利用者」の3主体別に責務を整理し、AI RMF の Govern/Map/Measure/Manage と概念的に整合する。本体に「NIST AI RMF を参照することが望ましい」旨も明記されており[2]、日本企業にとって AI RMF は国内ガイドライン遵守のための具体的実装手順書に位置づけられる。

日本企業での実装ガイド

現実的アプローチは、(1) 既存 ISMS(ISO 27001)と統合運用する、(2) Generative AI Profile を最初に導入し効果を実感した上で全社展開、(3) 法務・情シス・事業部門・経営企画の四者で AI ガバナンス委員会を設置、の3点に集約される。

特に重要なのは AI Use Case Inventory の整備だ。Shadow AI(IT部門が把握しない生成AI利用)の実態を四半期ごとに棚卸しし、ハイリスクから順に Profile を当てる。米国 EO 14110 撤回(2025年1月、Trump 政権 EO 14179[16])後も、AI RMF と AISIC は NIST の自主的フレームワークとして継続稼働しており[17]、規制方針転換にかかわらず参照価値は不変である。むしろ EU AI Act の段階適用(2025年2月の禁止条項発効、2026年8月の汎用AI規制発効)[6] を控え、グローバル展開する日本企業にとって AI RMF は最低限の共通防衛線となる。

チェックリスト(経営層向け5項目)

  1. AI Use Case Inventory が存在し、Shadow AI を含めて四半期ごとに棚卸しされているか
  2. Govern 機能として AI ガバナンス委員会・責任役員(CAIO もしくは CISO 兼務)が任命されているか
  3. Generative AI Profile の12リスクに対する自社対応方針が文書化されているか
  4. ハイリスク・ユースケースに対しレッドチーミング・第三者監査が年次実施されているか
  5. ISO/IEC 42001 認証取得もしくは同等のマネジメントシステム化のロードマップが策定されているか

打ち手

第一に、Generative AI Profile の12リスクを社内AI利用ポリシーに直接マッピングし、不足カテゴリ(CBRN、ディープフェイク、プロンプトインジェクション、学習データ著作権)を90日でポリシー追補と従業員教育に落とし込む。第二に、AI Use Case Inventory のテンプレートを Notion / Confluence で標準化し、新規AI案件はインベントリ登録なしには稟議に上げられない運用ルールを敷く。第三に、レッドチーミング体制の整備:内製化が難しい場合は AISIC 参加組織や国内セキュリティベンダーと年次契約を結ぶ。第四に、ISO/IEC 42001 認証取得を中期計画(2〜3年)に組み込み、グローバル取引先への信頼性訴求材料とする。

「AI RMF は AI を止めるためのフレームワークではない。AI で価値を出し続けるための、リスクと信頼の経済学である。Govern を欠いた Map・Measure・Manage は技術部門の自己満足に終わり、4機能を統合した組織だけが AI を持続的に経営資産化できる。」
— Elham Tabassi(NIST AI Safety Institute Chief AI Advisor)[18]

結論(3点)

  1. AI RMF 1.0 はグローバル標準:法的拘束力はないが、ISO/IEC 42001、EU AI Act、経産省ガイドラインと相互参照可能な共通言語。日本企業にとって既定の参照枠組みである。
  2. Govern を起点にせよ:Map/Measure/Manage を技術部門に委ねるだけでは破綻する。経営層・法務・CISO がコミットする Govern こそが成否を決める。
  3. Generative AI Profile から始めよ:全社展開を待たず、生成AIユースケースに AI 600-1 の12リスクを当てるところから始め、90日で初回振り返りを行う。

経営者視点での示唆

経営層が AI RMF を読み解くべき最大の理由は、「AI規制リスク」を「AI信頼性投資」に転換できる点だ。EU AI Act の制裁金は最大で全世界売上高の7%(GDPRの4%を超える水準)[6] に達し、米国でも州法(カリフォルニア SB 1047 は2024年9月に Newsom 知事が拒否権発動[19]、コロラド AI Act は2026年2月施行[20])が次々立法化されている。AI RMF を「コスト」と捉える経営者は、規制対応のたびに後追いで体制構築を強いられる。一方、AI RMF を 顧客・取引先・投資家への信頼性デューデリジェンスのフォーマットと捉える経営者は、競合より早くハイリスク領域(金融・医療・雇用・教育)へ展開できる。日本の取締役会では、CISO 報告のアジェンダに「AI ガバナンス成熟度」を四半期で報告させる体制を最小要件として推奨する。AI RMF は CISO 単独で完遂できる仕組みではなく、CFO(資本配分)、CHRO(人材)、法務(規制)、事業部門(ユースケース)を巻き込む経営アジェンダだ。AI RMF を 「AI 経営計画書」のテンプレートとして読み込めるかどうかが、向こう3年のグローバル競争力を決める。

参考文献

  1. NIST, “Artificial Intelligence Risk Management Framework (AI RMF 1.0),” NIST AI 100-1, January 26, 2023. https://www.nist.gov/itl/ai-risk-management-framework
  2. 経済産業省・総務省, “AI事業者ガイドライン(第1.0版),” 2024年4月19日. https://www.meti.go.jp/press/2024/04/20240419004/20240419004.html
  3. NIST, “Artificial Intelligence Risk Management Framework: Generative Artificial Intelligence Profile,” NIST AI 600-1, July 26, 2024. https://nvlpubs.nist.gov/nistpubs/ai/NIST.AI.600-1.pdf
  4. U.S. Congress, “National Artificial Intelligence Initiative Act of 2020,” Public Law 116-283, Division E. https://www.congress.gov/bill/116th-congress/house-bill/6216
  5. NIST, “Cybersecurity Framework 2.0,” NIST CSWP 29, February 26, 2024. https://www.nist.gov/cyberframework
  6. European Parliament & Council, “Regulation (EU) 2024/1689 (AI Act),” Official Journal of the EU, July 12, 2024. https://eur-lex.europa.eu/eli/reg/2024/1689/oj
  7. OECD, “Recommendation of the Council on Artificial Intelligence,” OECD/LEGAL/0449, revised May 3, 2024. https://legalinstruments.oecd.org/en/instruments/OECD-LEGAL-0449
  8. NIST, “AI RMF Playbook,” continuously updated. https://airc.nist.gov/AI_RMF_Knowledge_Base/Playbook
  9. The White House, “Executive Order 14110 on the Safe, Secure, and Trustworthy Development and Use of Artificial Intelligence,” October 30, 2023. https://www.federalregister.gov/documents/2023/11/01/2023-24283
  10. NIST, “AI Use Case Inventory and Documentation Templates,” AI Resource Center. https://airc.nist.gov/
  11. MIT FutureTech, “The AI Risk Repository,” 2024. https://airisk.mit.edu/
  12. NIST, “U.S. AI Safety Institute Consortium (AISIC),” established February 8, 2024. https://www.nist.gov/aisi/artificial-intelligence-safety-institute-consortium-aisic
  13. ISO/IEC 42001:2023, “Information technology — Artificial intelligence — Management system,” December 2023. https://www.iso.org/standard/81230.html
  14. NIST, “Crosswalk: AI RMF (AI 100-1) and ISO/IEC 42001:2023,” AI Resource Center. https://airc.nist.gov/AI_RMF_Knowledge_Base/Crosswalks
  15. 経済産業省・総務省, “AI事業者ガイドライン(第1.1版),” 2025年3月28日. https://www.meti.go.jp/policy/mono_info_service/geniai/ai_guidelines.html
  16. The White House, “Executive Order 14179: Removing Barriers to American Leadership in AI,” January 23, 2025. https://www.federalregister.gov/documents/2025/01/31/2025-02172
  17. NIST, “Statement on Continuity of AI RMF and AI Safety Institute Activities,” 2025. https://www.nist.gov/news-events/news
  18. Elham Tabassi, NIST official biography and remarks at AI Safety Summit, Bletchley Park, November 2023. https://www.nist.gov/people/elham-tabassi
  19. California Governor’s Office, “Governor Newsom Veto Message on SB 1047,” September 29, 2024. https://www.gov.ca.gov/wp-content/uploads/2024/09/SB-1047-Veto-Message.pdf
  20. Colorado General Assembly, “SB24-205 Consumer Protections for Artificial Intelligence,” signed May 17, 2024, effective February 1, 2026. https://leg.colorado.gov/bills/sb24-205
SHARE 𝕏 in f

あわせて読みたい