従業員向け生成AI利用ガイドライン ひな形
従業員向け生成AI利用ガイドライン ひな形
ChatGPTやGemini、Claudeといった生成AIが業務に浸透し、人事・情シス部門には「全社で安心して使うためのルールをどう作るか」という宿題が突き付けられている。日本ディープラーニング協会(JDLA)は2023年5月に「生成AIの利用ガイドライン」を公開し、その後も改訂を続けている[1]。総務省・経済産業省も2024年4月に「AI事業者ガイドライン」を統合公表し、第3部で「業務利用者」の責務を明文化した[2]。本稿は、この2大公的指針に加えNTTデータ・富士通など先行企業の公開ポリシーを踏まえ、自社で即流用できる「ひな形」とその運用ノウハウを、人事・情シス担当者向けに4,000字超で解説する(日本語:本記事は社内規程をゼロから書き起こすための実務リファレンスである)。
ガイドラインに最低限入れる7要素
JDLA公開版および総務省AI事業者ガイドライン第3部・付属書を踏まえると、社内規程に盛り込むべき必須要素は次の7点に集約される[1][2]。第一に「適用範囲」(対象者・対象サービス・業務範囲)、第二に「利用申請・承認フロー」(情シス側の許可リスト方式が主流)、第三に「入力禁止情報の定義」(個人情報・機密情報・営業秘密)、第四に「出力物の取扱い」(著作権・正確性検証・最終責任者の明示)、第五に「学習利用オプトアウト設定の義務化」、第六に「インシデント発生時の通報フロー」、第七に「教育・点検サイクル」(年1回以上の見直し)である。経済産業省・総務省のガイドラインは「AIガバナンスは生き物」と位置づけ、リスクベースで継続改訂することを推奨している[2]。ひな形を一度配布して終わり、ではなく、改訂履歴と教育記録を残す前提で設計したい。
業務シーン別「やってよい・悪い」リスト
抽象的な禁則だけを並べても現場は動かない。NTTデータや富士通の公開ポリシーが採用しているのは「業務シーン×可否」の具体例マトリクスである[3][4]。下表は7つの代表シーンについて、許可レベル(◎推奨/○条件付き可/×禁止)を示したひな形である。
| 業務シーン | 判定 | 条件・留意点 |
|---|---|---|
| 議事録の要約・清書 | ○ | 顧客名・個人名はマスクしてから入力。録音データは社内承認サービスのみ可。 |
| 社外メール下書き | ○ | 送信先・案件番号などの識別情報は入力しない。最終確認は人間が行う。 |
| 社内向けコード生成・補完 | ◎ | 商用ライセンスを契約したGitHub Copilot Business等の業務利用版を推奨[5]。秘密鍵・接続文字列の入力は禁止。 |
| 画像生成(資料・SNS用) | ○ | 商用利用条項を確認。実在人物・既存キャラクターのプロンプトは禁止[6]。 |
| 翻訳(社外公開文書) | ○ | NDA対象文書は不可。社内承認の機械翻訳サービスを優先。 |
| 長文要約・リサーチ | ◎ | 出典の事実確認(ファクトチェック)を必須化。ハルシネーションを前提に運用。 |
| 採用合否・人事評価の判断 | × | 差別・偏見リスクが高く、AI事業者ガイドラインも人間の関与を求める[2]。補助情報としての利用も慎重に。 |
入力してよい情報・ダメな情報マトリクス
「何を入れてよいか分からないので結局使われない」は典型的な失敗パターンだ。情報資産分類と生成AIの利用可否を1枚のマトリクスに落とすことで、現場の判断コストを下げられる[7][8]。下表はISO/IEC 27001の情報分類とJDLA・IPA「組織における内部不正防止ガイドライン」を踏まえた標準ひな形である[9]。
| 情報区分 | 例 | パブリックAI(無料版) | 法人契約AI(学習オフ) | 社内RAG/オンプレ |
|---|---|---|---|---|
| 公開情報 | プレスリリース、公開Web記事 | ○ | ○ | ○ |
| 社内一般情報 | 社内通達、業務マニュアル | × | ○ | ○ |
| 機密情報 | 未公開の事業計画、財務数値 | × | △(経営承認要) | ○ |
| 個人情報 | 氏名・連絡先・人事情報 | × | × | ○(匿名化推奨) |
| 機微情報・営業秘密 | 顧客名簿、技術ノウハウ、ソースコード資産 | × | × | ○(アクセス制御必須) |
| 第三者著作物 | 顧客提供資料、書籍の本文 | × | × | △(契約条項を確認) |
ポイントは「無料版(コンシューマ版)は原則として社内一般情報以上を入れない」「学習利用のオプトアウトをデフォルト設定する」「機微情報はクローズド環境のみ」という3層構造で運用することだ[1][7]。
著作権の落とし穴
生成AIと著作権の論点は「学習段階」と「生成・利用段階」を分けて整理する必要がある。日本の著作権法第30条の4は、情報解析を目的とする学習であれば原則として著作権者の許諾なく著作物を利用できると規定するが、「著作権者の利益を不当に害する場合」は例外とされる[10]。文化庁が2024年3月にまとめた「AIと著作権に関する考え方について」は、この但し書きの解釈を具体化し、学習データの選別や生成物の類似性が問われ得ると示した[11]。実務上は、(1)OpenAI、Anthropic、Googleなど主要サービスの利用規約で「学習に使われない設定」(API利用やエンタープライズ契約)を選ぶこと、(2)生成物が既存著作物に酷似する場合は依拠性が問われ得るため公開前にチェックすること、(3)顧客から預かった資料を入力する際はNDA・契約書の「第三者へのデータ提供」条項に抵触しないか確認すること、の3点を社内ルール化したい[10][11]。なお、画像生成については画風の模倣やキャラクターの再現が侵害判断の論点になるため、商用利用前に法務レビューを通す運用が安全である[6]。
違反時の社内対応フロー
インシデントは「気づいた時に隠さず通報できる仕組み」がすべてだ。IPA「組織における内部不正防止ガイドライン」も通報体制と懲罰の事前明示を強く推奨している[9]。標準的な対応フローは次の5段階である。第一段階「検知・初動」では、本人または同僚が情シス窓口(メール/Slack専用チャンネル/専用フォーム)に第一報を入れる。第二段階「一次切り分け」では、情シス・セキュリティ担当が入力情報の機密度、外部流出の有無、利用サービスの保管期限を確認する。第三段階「封じ込め」では、当該アカウントの一時停止、サービス事業者への削除依頼、社内関係者への通知を行う。第四段階「影響評価・報告」では、個人情報保護委員会への報告要否(漏えい等通知義務)[12]、顧客通知、経営報告を判定する。第五段階「再発防止」では、ガイドライン改訂・教育コンテンツ追加・該当者への懲戒検討を行う。重要なのは「悪意なき入力ミスは原則減点せず、隠蔽・虚偽報告は重く扱う」というメッセージを規程に明記することだ。
チェックリスト5項目
- 規程は「対象範囲・申請フロー・禁止情報・著作権・通報フロー・教育・改訂」の7要素を網羅しているか[1][2]
- 業務シーン別の「やってよい/悪い」例が10個以上具体的に書かれているか[3][4]
- 入力情報マトリクスが情報分類規程と整合し、無料版/法人版/社内RAGの3層で示されているか[7][8]
- 著作権・契約・個人情報保護法の各論点が条文単位で参照されているか[10][11][12]
- インシデント通報窓口が24時間受付で、罰則と免責の境界(隠蔽は重罰)が明示されているか[9]
打ち手
第一に「許可リスト方式」を採る。ChatGPT Enterprise/Microsoft 365 Copilot/Google Workspace with Gemini/Claude for Workなど、学習利用オフがデフォルトの法人契約サービスを2〜3本指定し、それ以外は申請制とする[5]。第二に「教育とテストをセット」にする。e-learning+確認テスト+年1回更新を就業規則と紐づけ、未受講者にはサービス利用権限を付与しない仕組みが効果的だ[1]。第三に「相談窓口の常設」。Slack専用チャンネルや「AI相談デスク」を設置し、現場の判断を支援する。第四に「ログとモニタリング」。CASB/DLPで入力テキストを監査し、機密情報入力を検知できる体制を組む。第五に「四半期レビュー」。新サービスの追加・規約変更・インシデント事例を反映し、規程を陳腐化させない。
「ガイドラインの目的は禁止することではなく、安全に使い倒せる前提を整えることである。書かれていない使い方が出てきたとき、現場が立ち止まれる仕組みこそが最大の防御線になる」(JDLA「生成AIの利用ガイドライン」前文の趣旨より[1])
結論3点
- 7要素を満たすひな形を骨格に、自社の情報分類と接続せよ。JDLA・AI事業者ガイドラインを土台に、許可サービス/禁止情報/通報フローを必ず固有名詞で書き下す[1][2]。
- 「やってよい」を増やす設計にせよ。禁止一辺倒は使われない規程を生む。シーン別の許可例を10個以上提示し、現場の判断負荷を下げる[3][4]。
- 規程は教育・監査・改訂とセットで運用せよ。年1回の改訂を前提に、相談窓口とログ監視で「使われ方」を可視化する[1][9]。
経営者視点:規程と教育のバランス、ガラパゴス化リスク
経営層が誤りやすいのは「厳しい規程=安全」という発想だ。実際には、規程が厳しすぎると(1)現場がシャドーAIを個人スマホで使い始め可視化不能になる、(2)法人契約の費用対効果が出ず投資判断が止まる、(3)ガラパゴス化して海外拠点や取引先と歩調が合わない、という3つの副作用が生じる。総務省AI事業者ガイドラインは「リスクベース・アプローチ」と「アジャイル・ガバナンス」を明記しており、規程の硬直化はむしろ国際標準から外れる[2][13]。経営者が握るべきレバーは2つだ。第一に「規程の厳しさ」と「教育の手厚さ」のバランス(日本語:規程を緩めるなら教育を厚く、教育が薄いなら規程は厳しめ、というトレードオフ設計)。第二に「グローバル整合」(NIST AI RMF、EU AI Act、ISO/IEC 42001の動向と社内ポリシーを定期的に突き合わせる)[13][14][15]。経営会議の年次アジェンダに「AIガバナンス棚卸し」を組み込み、現場の利用ログ・インシデント件数・教育受講率の3指標で運用品質をモニタリングすることを推奨したい。ひな形はあくまで出発点であり、自社の業種・規模・取引先構成に合わせてカスタマイズすることで、初めて実効性のある規程になる。
参考文献
- 日本ディープラーニング協会(JDLA)「生成AIの利用ガイドライン」(最新版)https://www.jdla.org/document/
- 総務省・経済産業省「AI事業者ガイドライン(第1.0版)」第3部 業務利用者編、2024年4月公表 https://www.soumu.go.jp/menu_news/s-news/01ryutsu06_02000363.html
- NTTデータ「生成AIの業務利用に関するガイドライン」関連プレスリリース https://www.nttdata.com/jp/ja/news/
- 富士通「生成AI利用ガイドライン」社内整備に関する公表資料 https://www.fujitsu.com/jp/about/research/
- GitHub「Copilot Business / Enterprise データ利用とプライバシー」 https://docs.github.com/copilot
- 文化庁 著作権課「AIと著作権について」(FAQ・セミナー資料) https://www.bunka.go.jp/seisaku/chosakuken/
- 独立行政法人情報処理推進機構(IPA)「テキスト生成AIの導入・運用ガイドライン」 https://www.ipa.go.jp/security/
- ソフトバンク「生成AI利用ガイドライン」公表資料 https://www.softbank.jp/corp/news/
- IPA「組織における内部不正防止ガイドライン(第5版)」 https://www.ipa.go.jp/security/guide/insider.html
- 著作権法第30条の4(情報解析のための利用) e-Gov法令検索 https://elaws.e-gov.go.jp/
- 文化庁「AIと著作権に関する考え方について」2024年3月 https://www.bunka.go.jp/seisaku/bunkashingikai/chosakuken/pdf/
- 個人情報保護委員会「個人情報保護法 ガイドライン(漏えい等報告・本人通知)」 https://www.ppc.go.jp/personalinfo/
- NIST「AI Risk Management Framework (AI RMF 1.0)」 https://www.nist.gov/itl/ai-risk-management-framework
- 欧州連合「EU AI Act(規則2024/1689)」 https://eur-lex.europa.eu/
- ISO/IEC 42001:2023 「Artificial Intelligence Management System」 https://www.iso.org/standard/81230.html
- メルカリ「AI Ethics Policy / 生成AI活用方針」公表ページ https://about.mercari.com/sustainability/ai-ethics/


