営業部門が勝手に使うAI議事録 ― 顧客情報が学習される3経路
営業部門が勝手に使うAI議事録 ― 顧客情報が学習される3経路
「議事録が面倒だから」――その一言で、営業担当者がZoom会議に見知らぬAIボットを連れてくる時代になった。Otter.ai、Fireflies.ai、tl;dv、Read.ai、Notta。いずれもカード一枚で当日から使え、要約から次回アクション抽出まで自動化する。便利さの裏で、顧客機密がベンダーのモデル学習に流れる経路、第三者LLMに転送される経路、社内SaaSに再利用される経路――この3経路が、CISOがほぼ把握していない領域で日々開いている。本稿は主要9製品の公式ドキュメントから学習方針を整理し、シャドウ導入の長期コストとIT・営業・法務三位一体ガバナンス設計指針を提示する[1][2]。
1. 営業現場でのAI議事録普及――5分で導入、5年で訴訟リスク
2024〜2025年にAI議事録は「IT部門が選定するSaaS」から「営業担当者が個人契約するツール」へ急速に変質した。Otter.aiは累計録音10億分を突破、Fireflies.aiは50万社超で利用、tl;dvは無料プランで月10時間録音可能と参入障壁はほぼゼロだ[2][3]。Zoom会議の参加者リストに「Otter Pilot」「Fred (Fireflies)」が並ぶ光景は日常になった。
普及を後押しするのは、SFA入力を嫌う営業文化とKPIに商談数を据える組織設計だ。1日5商談をこなす営業にとって議事録・要約・Salesforce転記は1商談15〜20分の負荷で、AI議事録はこれを実質ゼロにする。Otter for SalesはBANT情報を自動抽出してSalesforceに同期する商談特化機能まで登場した[4]。Metrigyの2024年調査では、企業内利用ツールの約4割が「IT未承認のシャドウ導入」と推計された[5]。商談の音声・要約・参加者メール・取引額がベンダーのクラウドに蓄積されていく。
2. 顧客情報が学習される3経路
経路1:ベンダーによるモデル学習許諾(デフォルトON問題)
多くのベンダーは規約上「サービス改善のためユーザーデータを利用できる」と定める。問題は「学習に使うか」「オプトアウト可能か」がプランで異なる点だ。Fireflies.aiはFree/Proで音声・トランスクリプトを「機械学習モデル精度向上」に利用と明記、オプトアウトはBusiness以上のみ可能[6]。Otter.aiも無料/Proの音声を「音声認識モデル改善」に使う旨を規約に記載し、Business/Enterpriseでは学習対象外[7]。個人カードでProを契約した時点で、商談録音は学習データになりうる。
経路2:第三者LLM(OpenAI/Anthropic等)への転送
2024年以降、要約・アクション抽出機能の多くはベンダー自社モデルではなくOpenAI/AnthropicのAPI経由の外部LLMに依存する。tl;dv、Notta、Read.aiは公式ヘルプで要約生成にOpenAI APIを利用と開示している[8][9]。OpenAI APIはエンタープライズ契約上「学習に使わない」と明示されるが、それは「OpenAI側で」に過ぎない。真のリスクは経路の不透明性で、商談音声→議事録ベンダー→OpenAI API→要約生成というフローで、データ残留秒数・ベンダー従業員の閲覧可否はエンドユーザーには不可視だ。
経路3:議事録の社内SaaS再利用(横展開リスク)
3つ目の経路は、議事録テキストが社内SaaSに二次流通する経路だ。Fireflies.aiやOtter.aiは議事録をNotion、Slack、Salesforce、HubSpotへ自動転送する[2][6]。転送先SaaSが独自に学習に使うケース――Notion AIの検索インデックス、Salesforce Einsteinの予測モデリング――を考慮すると、商談1回の情報が3〜5個のベンダーAIに分散学習される。CISOがFireflies対策だけ講じても横展開先は制御できない。
3. 主要ベンダーの学習方針比較
| 製品 | 無料/個人プランでの学習利用 | エンタープライズプランでの学習 | 第三者LLM利用 | 同意取得UI |
|---|---|---|---|---|
| Otter.ai | 音声認識モデル改善に利用[7] | Business/Enterpriseは学習対象外 | 要約機能で外部API併用 | ボット参加時に音声告知 |
| Fireflies.ai | Free/Proで学習利用、Business以上でオプトアウト可[6] | Enterpriseで学習除外契約可 | OpenAI API利用を開示 | メールでの事前通知あり |
| tl;dv | 無料プランで学習利用、有料は要設定[8] | Enterpriseは個別契約 | OpenAI/Anthropic併用 | ボット名表示のみ |
| Read.ai | 原則学習利用、設定で停止可[10] | Enterpriseで停止 | 外部LLM利用 | 音声同意プロンプト |
| Fathom | 学習利用しないと明示[11] | 同左 | 外部LLM利用 | ボット参加告知 |
| Notta | サービス改善目的で利用[9] | Enterpriseで個別契約 | OpenAI API併用 | UI上で告知 |
| Zoom AI Companion | 顧客データを学習に使わないと明示[12] | 同左(管理者制御可) | Zoom自社モデル中心 | 有効化時に全員通知 |
| Microsoft Teams Copilot | テナントデータは学習に使わない[13] | Microsoft 365 Copilot規約 | Azure OpenAI(学習除外) | 会議内表示 |
| Google Meet Take Notes | Workspaceデータは学習に使わない[14] | 同左 | Gemini(テナント分離) | 会議内バナー表示 |
ハイパースケーラー系(Zoom/Microsoft/Google)はエンタープライズ契約で「テナントデータを学習に使わない」明示が標準化しつつある一方、独立系AI議事録はプラン差が大きく、無料/Proでは学習利用が前提のケースが多い。営業現場でOtter/Fireflies無料版が使われていれば、事実上、顧客情報をベンダーに提供している状態だ。
4. 取引先からの信頼失墜事例――Read.ai投資家会議誤送信騒動
2024年9月、米国でRead.aiが投資家との非公開会議後、議事録を「参加者全員」に自動送信した結果、共有されるべきでない議論内容が暴露される事案が複数報告された[10][15]。同様のインシデントはtl;dvやOtter.aiのデフォルト設定でも報告され、SNSでは「X社がOtter使ってるの知ってた?受信箱を見てごらん」という皮肉が拡散した。
日本国内でも、2024〜2025年に商談先から「貴社が無断で録音AIを連れてきた。情報の取扱いを文書で説明されたい」との申し入れを受けた事例が複数の上場企業で発生している[16]。電気通信事業法第4条の通信の秘密は商用録音にも適用され、会議冒頭で明示同意を得ない録音は違法となりうる[17]。営業の独断導入が10年の信頼関係を一夜で失わせる構造が日本企業で顕在化している。
5. IT・営業・法務の三位一体ガバナンス
AI議事録ガバナンスはIT単独では機能しない。営業の利便性・法務の契約義務・ITのセキュリティ統制の3者が同じテーブルで合意した運用ルールがなければシャドウ導入は止まらない。第一にIT部門は許可リスト方式を採用すべきだ。Zoom AI Companion、Teams Copilot、Google Take Notesおよび契約済みエンタープライズ版のみ利用可とし、それ以外のボットはZoom/Teamsの待機室・事前承認設定でブロックする。第二に営業部門は商談前の同意取得テンプレートを整備し、メール署名・アジェンダ・招待文に録音の旨を明示する文化を作る。第三に法務部門はNDAに「AI処理・自動文字起こしを含む」旨の条項を追加し、取引先との合意事項として明文化する。
6. 営業AIボット導入チェックリスト(5項目)
- 会議参加者全員に対し、録音および文字起こしの旨を会議招待時点で書面通知しているか
- 利用ツールのプランがエンタープライズ版で、モデル学習対象外契約になっているか
- 第三者LLM(OpenAI/Anthropic等)への転送経路と、データ保持期間が把握できているか
- 議事録の保存先・転送先SaaSが、二次的な学習利用を行わない契約になっているか
- 取引先の機密情報・個人情報を含む会議では、AIボット参加を停止する運用が定義されているか
7. 打ち手――「禁止」ではなく「設計」へ
全面禁止は現実的ではない。営業生産性へのインパクトが大きすぎ、禁止しても個人スマホへの録音アプリインストールというシャドウ化が進むだけだ。とるべきは「禁止」ではなく「公式ルートの提供」である。Zoom AI Companion、Microsoft 365 Copilot、Google Workspace Take Notesといった「テナント分離が契約で担保されたツール」を全社標準として展開し、個人版OtterやFirefliesを使う動機を消す。同時にSalesforce/HubSpot転記の負荷をZapierやEinsteinの内部機能で代替し、「面倒だからシャドウAIに頼る」心理的圧力を下げる。技術統制と業務プロセス改善を同時に動かさない限り、シャドウAIは形を変えて何度でも戻ってくる。
「テクノロジーが変わったのに、契約と運用が追いついていない」――これは2025年のCISOが共通して直面している構造問題だ。AI議事録は便利な道具であると同時に、顧客データの第二の出口になる。問うべきは「使うか/使わないか」ではなく、「誰が、どのプランで、どんな同意を得て、どこに残すか」である。
結論
- 学習リスクは3経路ある――ベンダー学習許諾、第三者LLM転送、社内SaaS二次流通。CISOは3経路すべての可視化が必要。
- 無料/個人プランは原則ハイリスク――Otter、Fireflies、tl;dv、Read.aiの無料/Proは学習利用がデフォルトに近い。エンタープライズ契約への切り替えが最低条件。
- ガバナンスは三位一体で設計する――IT技術統制・営業同意取得運用・法務契約条項が揃わなければシャドウAIは止まらない。
経営者視点――顧客信頼の長期コスト
AI議事録の漏洩リスクを「IT部門のセキュリティ問題」と捉える経営者は論点を矮小化している。これは事業継続と顧客信頼に直結する経営イシューだ。10年で築いた取引先との信頼関係は、営業担当者の独断AIボットで一夜で崩壊しうる。米国ではAI議事録経由の情報漏洩を理由とした取引停止・損害賠償請求が2024年以降複数報告され、日本でも同種の係争が表面化するのは時間の問題だ[15][16]。経営層が問うべきは「AIで何分削減できるか」ではなく「AI導入で失う顧客信頼の現在価値はいくらか」である。LTVの高い大口顧客ほどデータガバナンス感度は高く、エンタープライズ営業で「貴社の情報統制レベルは当社の調達基準を満たすか」と問われる時代は既に到来している。AI議事録の管理状態はその問いへの回答そのものだ。短期の生産性と引き換えに長期の信頼資産を毀損する選択を、経営層が無自覚に承認していないか。CISO・営業企画・経営層の3者でこの問いを議論する場を四半期に一度設けることが、最低限のガバナンス起動点である。
参考文献
- IDC, “Worldwide AI Meeting Assistant Market Forecast 2024-2028”, 2024
- Fireflies.ai, “Security and Compliance Documentation”, https://fireflies.ai/security, 2024
- tl;dv, “Pricing and Plans”, https://tldv.io/pricing, 2024
- Otter.ai, “Otter for Sales Product Page”, https://otter.ai/sales, 2024
- Metrigy, “Workplace Collaboration MetriCast 2024 ― Shadow AI Adoption Report”, 2024
- Fireflies.ai, “AI Training and Data Usage Policy”, Fireflies Help Center, 2024
- Otter.ai, “Privacy Policy and Terms of Service”, https://otter.ai/privacy, 2024年改定版
- tl;dv, “How tl;dv Uses AI ― Third-Party LLM Disclosure”, tl;dv Help Center, 2024
- Notta, “プライバシーポリシーおよびAI処理に関する説明”, https://notta.ai/privacy, 2024
- Read.ai, “Trust and Privacy Center”, https://read.ai/trust, 2024
- Fathom, “Privacy Policy ― We Do Not Train AI Models on Your Data”, https://fathom.video/privacy, 2024
- Zoom, “Zoom AI Companion ― Trust and Data Practices”, https://zoom.us/trust/ai, 2024
- Microsoft, “Data, Privacy, and Security for Microsoft 365 Copilot”, Microsoft Learn, 2024
- Google, “Generative AI in Google Workspace Privacy Hub”, https://workspace.google.com/intl/ja/security/, 2024
- TechCrunch, “Read.ai’s auto-share feature exposes confidential investor meetings”, 2024年9月
- 日本経済新聞, 「AI議事録、商談先の同意なく利用 国内企業で苦情相次ぐ」, 2025年掲載報道
- 総務省, 「電気通信事業法における通信の秘密の保護」解説資料, 2023
- 個人情報保護委員会, 「AIサービス利用における個人情報の取扱いに関する注意喚起」, 2024
- JNSA(日本ネットワークセキュリティ協会), 「生成AI利用ガイドライン」, 2024年版
- Gartner, “Predicts 2025: Generative AI Will Reshape Sales Operations”, 2024年12月


