改正個人情報保護法 2025 ― AIに対する「利用停止請求」
改正個人情報保護法 2025 ― AIに対する「利用停止請求」
生成AI・大規模言語モデル(LLM)の社会実装が進むなか、個人情報保護委員会(PPC)は2026年1月、いわゆる「3年ごと見直し」の制度改正方針を取りまとめた[1]。焦点のひとつは、本人による利用停止請求権(個人情報保護法35条)が、すでに学習を終えたLLMの内部パラメータにまで及ぶのかという論点である。GDPR17条「忘れられる権利」がEU司法裁判所の判例で揺さぶられ続けているように[2]、日本でも「学習済みモデルからの忘却」は法的請求権と技術的不可能性の正面衝突を引き起こしている。法務・CISOにとって、この交差点をどう設計するかは、課徴金制度・越境移転規制・16歳未満保護といった改正論点と並ぶ最重要アジェンダである。本稿では現行法の射程、生成AI適用上の論点、Machine Unlearningの限界、経営者が今期中に着手すべき打ち手を整理する。
3年ごと見直しの全体像
2022年4月に全面施行された改正個人情報保護法は、附則において「施行後3年を目途に検討を加える」と定めており[3]、PPCは2024年から検討会を開始、2025年の中間整理を経て、2026年1月に制度改正方針を公表した[1]。柱は概ね5本に整理できる。第一に、課徴金制度の創設可能性[4]。第二に、団体訴訟制度(適格消費者団体による差止請求の拡張)。第三に、16歳未満の子どもの同意取得・親権者関与に関する特則[5]。第四に、越境移転規制の実効性強化(移転先国の政府アクセス透明化要請を含む)[6]。第五に、本稿の主題である生成AIと個人データの関係、特に「学習データに含まれた本人」の権利行使可能性である。
注意すべきは、PPCが現時点で「AI特例条項」を新設する方針を明示していない点である。むしろ既存の利用停止請求権・開示請求権・同意原則の枠内で生成AIをどう位置づけるかというグラデーション議論が中心であり、新法を待つのではなく、現行35条の解釈論として自社のLLM活用が訴訟リスクに耐えうるかを点検する必要がある。
利用停止請求の現行制度
個人情報保護法35条は、本人が、自己を本人とする保有個人データの利用停止・消去を請求できる旨を定める[7]。請求要件は大別して3類型ある。すなわち、(1) 利用目的外利用や違法な取得など16条・17条・20条違反、(2) 不適正利用(19条)、(3) 「個人の権利又は正当な利益が害されるおそれがある場合」(35条5項)の3つである[7]。2022年改正で追加された3類型目は、漏えい等が生じた場合のほか、本人が当該データの保有を望まない正当な利益を有する場合にも適用余地があると解されており、PPCのQ&Aもこれを示唆している[8]。
請求を受けた事業者は、遅滞なく必要な調査を行い、違反が認められれば利用停止・消去を行う義務を負う。ただし「多額の費用を要する場合その他の利用停止等を行うことが困難な場合」には、本人の権利利益保護のため必要な代替措置を講ずれば足りるとされる(35条6項)[7]。この「困難な場合」の解釈が、後述するLLM忘却問題の法的逃げ道になりうる一方、「困難であることの立証責任」は事業者側にあるとされる点は実務上重要である。
生成AI/LLMへの適用上の論点
生成AIに関しては、PPCが2023年6月にOpenAIに対して行政指導の形で「要配慮個人情報を本人同意なく収集しないこと」「学習データに本人を特定可能な情報が含まれることを明示すること」等を求めた経緯がある[9]。同指導は、ChatGPTが出力する応答が「保有個人データ」に該当しうる前提に立っており、ここから利用停止請求の射程をめぐる論点が立ち上がる。
論点は3層に分けて整理できる。第一層は学習データセットそのもの。ウェブクロールやSNSから取得された個人データを学習に用いる場合、利用目的の特定(17条)、要配慮個人情報の取得制限(20条2項)、不適正利用の禁止(19条)が直接適用される。第二層はモデル内部のパラメータ。学習済み重みは個別個人を直接特定する形で保持しないが、メンバーシップ推論攻撃やデータ抽出攻撃により、特定の学習サンプルが復元可能なケースが報告されている[10]。この場合、当該パラメータを「保有個人データ」と評価するかが分かれる。PPCは現時点で明示の見解を示していないが、出力により再特定可能であるならば実質的に保有していると見るのが安全側の解釈である。第三層は推論時の出力。出力に含まれた個人情報は、提供(27条)・第三者提供記録義務(29条・30条)・利用目的(17条)の各規律が及ぶ。
利用停止請求の文脈で最も悩ましいのが第二層である。本人が「私の名前と経歴をモデルから消してほしい」と請求したとき、事業者は学習データから当該レコードを削除できても、すでに重みに織り込まれた「学習痕跡」を選択的に消去することは現在の技術では事実上困難である[11]。ここで35条6項の「困難な場合」の代替措置として、出力フィルタや拒否リスト(refusal list)による応答抑止が広く採用されているが、これが「権利利益保護のため必要な措置」として十分かは未解決である。
Machine Unlearning の現実
機械学習モデルから特定データの影響を事後的に取り除く研究領域は「Machine Unlearning」と呼ばれ、Cao & Yangの2015年論文以降、活発な研究が続いてきた[12]。アプローチは大きく3系統に分かれる。厳密アンラーニングはデータを分割して個別学習し対象分割のみ再学習する手法(SISA等)で、理論的に完全な忘却が可能だがLLM規模では再学習コストが許容範囲を超える。近似アンラーニングは勾配反転・影響関数・知識蒸留で対象データの寄与を相殺する手法[13]。出力レベルのガードレールは応答時に拒否ロジックを介在させる方法である。
2023年以降のNeurIPSやICMLで報告されている評価指標(forget quality, retain quality, MIA resistance)を見る限り、近似アンラーニングは小規模分類モデルでは一定の成果を示すものの、数十億〜数兆パラメータのLLMでは「忘却したはずの情報」が言い回しを変えれば再出力されるなど、検証可能な忘却が達成できないケースが多い[14]。NIST AI Risk Management Frameworkも、生成AIプロファイルにおいて「データ削除請求への対応の限界」を明示的に列挙しており[15]、技術的不可能性は国際的な共通認識となりつつある。実務的には、忘却技術単体に依存せず、(a) 学習データキュレーション段階での除外、(b) 出力時のフィルタリング、(c) 再学習サイクルでの除外反映、を多層に組み合わせることが現実解である。
2026年改正方針の主要点
2026年1月の制度改正方針は、本稿の主題に関連する範囲で、概ね以下を打ち出している[1]。第一に、課徴金制度については、重大な違反類型を限定列挙したうえで売上高の一定割合を上限とする方向で引き続き検討するとしつつ、最終結論は次期通常国会以降の法案化過程に委ねた。第二に、子ども保護では、16歳未満への対応として、利用目的の通知方法の特則、不適正利用該当性の判断における年齢の考慮、原則として親権者の関与を求める方向が示されている[5]。第三に、越境移転については、移転先国の政府アクセス制度の透明性確保や、移転先で本人がアクセス・是正手段を持つかの確認を強化する論点が示された[6]。これはEUのSchrems II判決を経たGDPR第V章の運用[16]と歩調を合わせる動きである。第四に、生成AIに関しては、現行法解釈の明確化(ガイドライン整備)を中心に進め、特例立法は当面行わないとの方向性が示唆されている。第五に、団体訴訟・差止請求の拡張は、消費者契約法上の枠組みとの整合性を踏まえ継続検討とされている。
法務・CISO向けチェックリスト(5項目)
- 学習データの権原確認:自社で開発・ファインチューニングするモデルについて、学習データの出所・同意根拠・要配慮個人情報の混入有無をデータカードに記録しているか。
- 利用停止請求の受付フロー:本人が「私を学習データから外してほしい」と請求してきた場合の窓口・対応SLA・代替措置(出力抑止)の手順書が整備されているか。
- 出力ガードレールの検証ログ:拒否リスト・PIIマスキングの有効性を定期的にレッドチームテストし、forget qualityをエビデンス化しているか。
- 越境移転先のアクセス制度評価:海外SaaS型LLM(推論API)を利用する場合、提供国の政府アクセス制度・本人救済手段を評価し、Transfer Impact Assessmentを文書化しているか。
- 16歳未満ユーザーの除外:B2C用途で年齢確認・親権者関与の仕組みを実装し、未成年データが学習・推論に流入しない設計になっているか。
打ち手
実務上の打ち手は「学習前」「運用中」「請求対応時」の3局面で設計するのが定石である。学習前は、データキュレーションパイプラインにPII検出と除外ルールを組み込み、データセット系譜(lineage)を保存する。運用中は、推論ログのモニタリングとレッドチーム評価を四半期で回し、メンバーシップ推論や逐語再生の兆候を検知する。請求対応時は35条6項「困難な場合」の主張に依存しすぎず、出力フィルタ追加・次回再学習からの除外・該当APIキー単位の応答抑止の3点セットを「代替措置」として提示できる体制を整える。外部LLMベンダーとのDPAには削除請求の伝播条項(subprocessor flow-down)を必ず入れることが望ましい[17]。
「忘却は、技術ではなく組織能力である。学習データの選別、出力の監視、請求対応のSLA、再学習サイクルの運用、これらが一体として動いて初めて、利用停止請求への実効的な応答が可能になる。LLMの内部パラメータからの完全な忘却は当面望めないと前提し、その不可能性を前提とした多層防御をもって、本人の権利利益保護に応えるという発想の転換が、改正法時代の必須要件である。」
結論3点
- 現行35条はすでにLLMに及ぶ。改正を待たず、保有個人データ性の解釈を安全側に倒し、利用停止請求の受付・代替措置・記録の3点セットを今期中に整備すべきである。
- Machine Unlearningは銀の弾丸ではない。技術的限界を前提に、学習データキュレーション・出力フィルタ・再学習除外の多層防御を組織能力として確立する。
- 2026年改正は「課徴金・子ども・越境移転」の3点で経営インパクトが大きい。生成AI特例は当面立法されない見通しのため、解釈論と運用整備で先回りすることが競争優位になる。
経営者視点
取締役会でこの論点を扱う際、CISOと法務が陥りがちな失敗が3つある。第一に、「APIを使っているだけだから関係ない」という委任の誤謬。委託先監督義務(25条)は依然委託元の責任であり、APIユーザーでも本人対応の最前線に立たされる。第二に、「忘却は技術部門の問題」と切り出す縦割りの誤謬。実態は学習データ調達(事業企画)・本人対応窓口(CS)・モデル運用(エンジニア)・契約条項(法務)の横串課題であり、ガバナンス体制を経営直轄で組む必要がある。第三に、「課徴金が立法されてから動けばよい」という後手の誤謬。すでに行政指導・公表・将来的な団体訴訟というレピュテーションリスクは現実化しており、課徴金は既存リスクの可視化にすぎない。経営者は本期中に(a) AIガバナンス委員会の設置、(b) 利用停止請求対応SLAの社内決裁、(c) 海外LLMベンダーとのDPA再交渉、の3点を「Done」のラインとして設定すべきである。これらは課徴金が立法されるか否かにかかわらず、顧客・採用候補者・投資家に対する誠実性のシグナルとして機能する。
参考文献
- 個人情報保護委員会「個人情報保護法 いわゆる3年ごと見直しに係る制度改正方針」(2026年1月)
- 欧州司法裁判所 C-131/12 Google Spain事件、C-507/17 Google v. CNIL事件
- 個人情報の保護に関する法律 附則第10条(令和3年改正)
- 個人情報保護委員会「3年ごと見直し検討会 第13回 課徴金制度に関する論点」議事概要
- 個人情報保護委員会「子どもの個人情報の保護に関する論点整理」(2025年)
- 個人情報保護委員会「越境移転に関する論点整理」(2025年)
- 個人情報の保護に関する法律 第35条(利用停止等)
- 個人情報保護委員会「『個人情報の保護に関する法律についてのガイドライン』に関するQ&A」
- 個人情報保護委員会「OpenAI, L.L.C. に対する注意喚起の概要」(令和5年6月2日)
- Carlini, N. et al., “Extracting Training Data from Large Language Models,” USENIX Security 2021
- Bourtoule, L. et al., “Machine Unlearning,” IEEE S&P 2021
- Cao, Y. & Yang, J., “Towards Making Systems Forget with Machine Unlearning,” IEEE S&P 2015
- Koh, P. W. & Liang, P., “Understanding Black-box Predictions via Influence Functions,” ICML 2017
- NeurIPS 2023 Machine Unlearning Challenge 公式報告
- NIST AI 600-1, “Artificial Intelligence Risk Management Framework: Generative AI Profile” (July 2024)
- 欧州司法裁判所 C-311/18 Schrems II 判決(Data Protection Commissioner v. Facebook Ireland)
- European Data Protection Board, “Guidelines 07/2020 on the concepts of controller and processor”
- 総務省・経済産業省「AI事業者ガイドライン 第1.0版」(2024年4月)
- 個人情報保護委員会「生成AIサービスの利用に関する注意喚起等」(令和5年)
- EU一般データ保護規則(GDPR)第17条(消去権/忘れられる権利)


