うちの会社にシャドウAIはあるか ― 90秒で分かる10問セルフ診断
うちの会社にシャドウAIはあるか ― 90秒で分かる10問セルフ診断
「全社で生成AIの利用ガイドラインを敷いた」「Microsoft 365 Copilotを契約した」――それで安心していないだろうか。実態調査の世界では、企業が把握していない無許可の生成AI利用、いわゆるシャドウAI(Shadow AI)が、ガバナンスを敷いた企業ほど水面下で広がるという逆説が報告されている。Cyberhavenの調査では、職場でのChatGPT利用のうち約74%がコンシューマー版経由であり[1]、Salesforceの調査では業務でAIを使う米国従業員の55%が許可なく使った経験を持つ[2]。本稿は、経営層・CISO・情シス責任者が90秒で自社のシャドウAIリスクを把握できる10問のセルフ診断を提示する。
なぜいま「セルフ診断」が必要なのか
大企業のセキュリティチームは、ネットワーク監視ツールやCASB(Cloud Access Security Broker)で生成AIサービスへの通信量を可視化する手段を持つ。しかし中堅・中小企業や、個別事業部が独自に動く組織では、SaaSの利用状況を網羅的に把握する仕組みが存在しないことが多い。Netskopeの「Cloud and Threat Report: AI Apps in the Enterprise 2024」では、エンタープライズ環境で利用される生成AIアプリ数の中央値が3つから10前後に増加し、上位1%の組織では80以上のAIアプリが業務環境から呼び出されていると報告されている[3]。Zscalerの「ThreatLabz 2024 AI Security Report」も、企業からのAIトランザクションが前年比約6倍に膨張したと指摘する[4]。
さらにIPAの「企業における生成AIの利用に関する実態調査」では、生成AI利用ルールを「整備済み」と回答する企業と、現場での利用実態のあいだに無視できない乖離が確認されている[5]。Gartnerは2025年にかけてシャドウAIを「最も急速に拡大するインサイダーリスクの一つ」と位置づけ、IT部門が認識しないAI利用に関連するインシデントが2027年までにAI関連インシデントの40%を超えると予測している[6]。だからこそ「うちは大丈夫」を裏付ける、構造化されたセルフ診断が必要なのだ。
10問の設計と各質問の意図
診断は、シャドウAIの侵入経路と業務深度の二軸でリスクを捕捉できるよう設計している。各質問は、Cyberhaven、Netskope、Zscaler、Palo Alto Networks(Unit 42)、IPAの公開データで「インシデントとの相関が高い」と報告されている兆候を踏襲している[1][3][4][7][5]。
- Q1:従業員の半数以上が、業務上のテキスト(議事録・顧客メール・資料下書き)を、月1回以上ChatGPT等に貼り付けているか?――Cyberhaven調査では従業員の約27%が機密データを生成AIに入力していた事例が報告される[1]。最も典型的な侵入経路。
- Q2:プロンプトに顧客名・契約金額・人事評価などのデータが入っていないと言い切れるか?――Cyberhavenは流入データの11%超が機密に該当すると分類[1]。「言い切れない」=ブラックボックス化のサイン。
- Q3:無料版(個人アカウント)でのAI利用を黙認していないか?――Salesforce調査で40%の従業員が「無料サービスを職場で使う」と回答[2]。学習データへの利用拒否設定の有無で大きな差。
- Q4:Zoom/Teams/Google Meetの会議AI、Otter.ai、tl;dvなど第三者の議事録AIを誰がいつ使ったか追跡できるか?――Netskopeはミーティング系AIを「無断利用率の高いカテゴリ」として警告[3]。会話そのものが学習データに流れうる。
- Q5:ChatGPT for ChromeやMonica、Sider、Merlinなど、生成AI系ブラウザ拡張のインストールを把握しているか?――Palo Alto Networks Unit 42は、悪意あるAI拡張機能を介した認証情報窃取事案を継続的に観測[7]。
- Q6:BYOD・私物スマホでChatGPT/Claude/Geminiアプリを業務利用しているメンバーがいないか?――Zscalerは私物デバイス経由のAI利用が監視死角の最大要因と指摘[4]。
- Q7:エンジニアがGitHub Copilot・Cursor・Codeium等を、コードレビューやライセンス確認なしに導入していないか?――OSSライセンス汚染と機密コードの外部送信は、開発組織で最も訴訟リスクが高い領域[8]。
- Q8:マーケ・営業部が、独自にCopy.ai、Jasper、Notion AI、Geminiなどを契約・利用していないか?――Forresterはマーケ部門のAI予算が情シスの可視化外で増えていると報告[9]。
- Q9:人事・採用領域で、応募者情報を要約・スコアリングするAIツールを使っていないか?――個人情報保護法・職業安定法・差別禁止規制の三重リスク領域。EU AI Actでも「ハイリスクAI」に分類される[10]。
- Q10:上記いずれかが「Yes」または「不明」のとき、社内に通報・申告窓口があり、過去90日に1件以上の自主申告があったか?――心理的安全性のリトマス試験紙。「ゼロ件」は健全さではなく、隠蔽の兆候である可能性が高い。
評価ロジックと色帯
採点はシンプルだ。Q1〜Q9の各設問について「Yes / 不明」=2点、「No(明確に把握)」=0点。Q10は逆転項目で、申告窓口があり実際に申告がある=−2点(リスク低減ボーナス)、申告ゼロまたは窓口なし=+2点。合計0〜20点で4色に分類する。
- 緑帯(0〜4点):低リスク。SaaS可視化と申告文化が機能。年次の棚卸しと教育を継続。
- 黄帯(5〜10点):要注意。シャドウAIの「初期植民地」が複数部門に存在。CASB導入かIDaaS連携での発見を急ぐ。
- 橙帯(11〜15点):高リスク。Cyberhaven報告の「平均的に危険な」企業群と同等[1]。3カ月以内に利用規程・承認ツール・監視導入の三点セットが必要。
- 赤帯(16〜20点):危険。機密データの外部学習が常態化している蓋然性が高い。経営アジェンダとして即時対応すべき水準。
この色帯は、Gartnerが提唱するAI-TRiSM(Trust, Risk and Security Management)成熟度モデルの「Aware → Capable → Optimised」の段階区分とも整合する設計とした[6]。
典型的な診断結果パターン3つ
パターンA:「ガバナンス先行・現場後追い」型(橙帯)。大企業に多い。CISOがガイドラインを敷き、Microsoft 365 Copilotを契約済み。しかし営業・マーケ部門は使い勝手の良いChatGPT Plusを個人課金で継続。Q3・Q8で点数が跳ねる。Salesforce調査でいう「許可なくAIを使う55%」の構図そのもの[2]。
パターンB:「議事録AI蔓延」型(黄〜橙帯)。中堅企業に多い。Q4・Q5・Q6で集中的に点数が積み上がる。Otter.ai・tl;dv・Fathomなどが個別アカウントで使われ、顧客との商談音声がベンダーのクラウドに保存されている。NDA違反リスクと個人情報保護法の同意要件をクリアしていないケースが大半[3]。
パターンC:「開発現場の地下AI」型(橙〜赤帯)。スタートアップ・SIerに多い。Q7が突出。エンジニアが業務効率のためにCursorやClaude Codeを個人課金で導入、社内コードを貼り付ける。GitHub Copilot Businessへの正式移行までの「ブリッジ期間」が放置されている。コード流出と知財権の二重問題[8]。
改善アクション設計
診断結果ごとに、IPA「組織における内部不正防止ガイドライン」とNIST AI Risk Management Framework(AI RMF 1.0)の構造に沿った打ち手を提示する[5][11]。
緑帯には、半年に1回の再診断と、新規SaaS追加時の「AI機能有無チェック」をオンボーディング手順に組み込むことを推奨する。黄帯では、CASBもしくはNetskope/Zscaler相当の可視化ツールを導入し、「使ってよいAI」のホワイトリストを公開する。橙帯では、AI利用承認フロー(軽量な30秒申請)と、機密データ分類タグ付けの徹底を3カ月で実装する。赤帯は、経営会議アジェンダとしてのエスカレーションが必須で、外部CISOアドバイザリの活用も選択肢となる。
5項目チェックリスト
- 過去30日のSaaS利用ログを部門別に出力できる仕組みがあるか
- 機密データ分類(公開/社内/機密/極秘)が定義され、生成AIへの投入可否が明文化されているか
- 「承認済みAIツール」一覧が全社員に共有され、月次で更新されているか
- AI利用に関する自主申告窓口があり、報告者が不利益を被らないことが宣言されているか
- 採用・人事・与信などハイリスク領域でのAI利用が経営層レビュー対象になっているか
打ち手:90日プログラム
診断で橙〜赤と判定された組織が3カ月で取るべき打ち手を、優先度順に整理する。1〜30日:IT部門と人事部門で合同タスクフォースを発足、CASBもしくはMDMログから生成AIアクセスを抽出し、利用実態の一次マップを作成する。31〜60日:AI利用ガイドラインを「禁止リスト」ではなく「承認ツールのカタログ」型に書き換える。法務とともに外部学習オプトアウト設定を全エンタープライズ契約で確認する。61〜90日:30秒で完了する利用申請フローをSlack/Teams上に実装し、四半期ごとの再診断を制度化する。Forresterは、禁止主体ではなく「承認済み代替手段の提供」がシャドウITの最も効果的な抑制策だと報告している[9]。
「シャドウAIは技術問題ではなく、文化と動線の問題である。禁止令を出すほど水面下に潜り、許可制を整えるほど表に出てくる。可視化と心理的安全性こそが最大の統制である。」――Gartner, “Predicts 2024: AI & Cybersecurity”[6]
結論:3つのテイクアウェイ
- シャドウAIは「ある/ない」ではなく「どれだけ深いか」の問題。Cyberhaven・Netskope・Zscalerの最新データを統合すると、ゼロの企業は事実上存在しない。
- 診断の目的は罰則ではなく可視化。申告ゼロは安全ではなく、監視死角または心理的不安の指標である。
- 90日で「承認済みAIカタログ+30秒申請+四半期再診断」の三点を回せば、橙帯から黄帯へ後退できる。禁止より動線設計が効く。
経営者視点:シャドウAIをROIアジェンダに変える
経営層にとってのシャドウAIは、単なるリスク事象ではない。むしろ「現場が独自にAIを欲しているという需要シグナル」であり、適切に把握すれば全社AI投資の優先順位を決める一級のインプットになる。営業部門が無断でChatGPTに提案書を書かせているなら、それは営業文書生成への投資ROIが高い証拠だ。マーケ部門がCopy.aiを個人課金しているなら、コンテンツ生成基盤の正式整備が遅れているシグナルである。Forrester Wave上位ベンダーの導入評価でも、「現場の独自利用率を需要予測に転換した企業」が、全社AI投資のROI回収を平均より早めている事例が複数報告されている[9]。
つまりCISO・情シスが診断結果を「叱責の材料」ではなく「投資配分の材料」として経営会議に持ち込めれば、シャドウAIはガバナンス課題から競争優位の起点に転換する。経営者に求められるのは、診断で赤帯が出た部門に対して「なぜ正規ツールでは足りなかったのか」を冷静に問い、需要を起点とした再設計を指示する姿勢である。守りと攻めのAI戦略は、シャドウAIの可視化を共通の土台として接続される。本診断はその第一歩を、わずか90秒で踏み出すための装置として活用してほしい。
参考文献
- Cyberhaven Labs, “The Cubicle Culprits Shaping AI Risks” / “Q2 2024 AI Adoption and Risk Report”, 2024.
- Salesforce, “Generative AI Snapshot Research – Untrained Anarchy”, 2023–2024.
- Netskope Threat Labs, “Cloud and Threat Report: AI Apps in the Enterprise”, 2024.
- Zscaler ThreatLabz, “2024 AI Security Report”, 2024.
- 独立行政法人情報処理推進機構(IPA), 「企業における生成AIの利用に関する実態調査」および「組織における内部不正防止ガイドライン」, 2023–2024.
- Gartner, “Predicts 2024: AI & Cybersecurity” / “AI TRiSM: Tackle Trust, Risk and Security in AI Models”, 2024.
- Palo Alto Networks Unit 42, “2024 Threat Report: Generative AI and Browser Extension Risks”, 2024.
- Stanford HAI / GitHub, “The Economic Impact of Generative AI on Developer Productivity and Code IP Risk”, 2023–2024.
- Forrester Research, “The State of Generative AI in the Enterprise” / “Predictions 2025: AI”, 2024.
- European Parliament, “EU Artificial Intelligence Act – Final Text”, 2024.
- NIST, “AI Risk Management Framework (AI RMF 1.0)”, 2023.
- McKinsey & Company, “The State of AI in 2024”, 2024.


