日本製生成AIサービス比較 ― ELYZA・PLaMo・Karakuri・セキュリティ観点

Picsum ID: 886

日本製生成AIサービス比較 ― ELYZA・PLaMo・Karakuri・セキュリティ観点

「ChatGPTを業務利用したいが、プロンプトに含まれる顧客データが米国に渡るのは避けたい」――2025年以降、CISO・情シス部門の意思決定でこの論点が一気に表面化した。経済安全保障推進法、改正個人情報保護法、業界ガイドライン(FISC、医療情報、防衛装備品)からデータ越境要求が強まり、外資一辺倒の生成AI調達に修正が入っている。一方、KDDI傘下のELYZA、Preferred NetworksのPLaMo、カラクリ社のKarakuri LM、SoftBankのSarashina、NTTのtsuzumi、LINEヤフーのHyperCLOVA-X JPといった日本製LLMがエンタープライズ向け提供を本格化させている[1][2][3]。本稿は性能・データ主権・契約条件・国家プログラムの4軸で日本製LLMを比較し、調達戦略を提示する。

1. 日本製LLMが立ち上がった3つの戦略軸

日本製LLMの背景には3つの戦略軸がある。第1はデータ主権。生成AIは入力プロンプトと出力ログを学習に再利用しうる構造で、海外SaaSを使う限りデータ越境は完全には排除できない。改正個人情報保護法28条の越境移転規制やEU GDPRとの整合性を考えると、日本国内で学習・推論・ログ保管が完結する選択肢は希少価値を持つ[4]

第2は日本語性能。GPT-4oやClaudeも日本語処理は高水準だが、トークナイザの効率、敬語の扱い、専門ドメイン(法務・医療・金融)の用語感では、日本語前提のモデルが優位な局面が残る[5]。第3は経済安全保障。経産省は2023年以降GENIACを通じて国産LLM開発に計算資源とデータを供給[6]、内閣府のK ProgramではAIを含む先端技術の自律性確保が重点項目で、政府調達・防衛・重要インフラ領域では国産優位が制度的に担保されつつある[7]

2. 主要プロダクト一覧 ― ベンダー別の現在地

ELYZAはKDDI傘下となり、Llama 2/3を継続学習した「Llama-3-ELYZA-JP-70B」等を公開、エンタープライズAPIと業界特化モデルを提供[1]Preferred NetworksのPLaMoは完全自社学習のフルスクラッチ国産で、PLaMo 2-100B(2025年)はGENIAC支援の1,000億パラメータ級として最大規模の国内開発実績を持つ[2][6]Karakuri LMはカラクリ社(カスタマーサポート特化)が開発、Llama 2をベースに敬語・FAQに最適化し、コンタクトセンターでの採用が進む[3]

SoftBankのSarashinaは3,900億パラメータ級として発表、SB Intuitionsが国内DC提供を進める[8]NTTのtsuzumiは対照的に「軽量・省電力」を打ち出し、6億〜70億パラメータでGPU 1枚運用を可能にし、医療・自治体での採用事例が増えている[9]CyberAgentLM3(CALM3)は220億パラメータ級を商用利用可能ライセンスでHugging Face公開[10]LINEヤフーHyperCLOVA-X JPは韓国NAVERと共同開発した日韓バイリンガルモデル[11]Stockmarkはビジネスニュース・特許・有報を学習素材にした業務特化LLMを、rinnaは小型モデル群(Youri、Bilingual等)を継続公開する[12][13]

3. 性能ベンチマーク ― Nejumiリーダーボードの読み方

性能評価はNejumi LLMリーダーボード(W&B × Stability AI Japan)とJapanese MT-Benchが事実上の標準[14][15]。Nejumi 3では上位に海外モデル(GPT-4o系、Claude系、Gemini系)が並ぶが、その直下にPLaMo 2-100B、Llama-3-ELYZA-JP-70B、Sarashina2、CALM3-22B等の国産勢が食い込み、Llama 3.1 70B等の海外オープンモデルと日本語タスクでは互角〜優位の結果も出ている[14]。CISOが見るべきは順位だけでなく、タスク別ばらつき(コードは海外優位/要約・社内Q&Aは国産安定)、推論コストとサイズの総コスト比較、ベンチマーク汚染リスクの3点である。

4. データ主権・越境観点の比較

セキュリティ調達の核心はここにある。各モデルを「学習データ所在」「推論所在」「ログ保管」で整理すると、PLaMoはフルスクラッチ学習で推論も国内DC(さくらインターネット高火力等)で完結する設計[2][6]。tsuzumiはNTTグループDCまたは顧客オンプレへのデプロイに対応し、医療・自治体の機微業務でも内部完結を実現する[9]。ELYZAはKDDIグループ基盤で国内推論を提供し、企業向けにはVPC内専用環境構築も可能[1]

ただしベースモデルがLlama 2/3等のMeta製である場合、学習データそのものはMeta基盤に由来し、ライセンス制約や追加学習の透明性に依存が残る[16]。「日本製ラッパー+海外ベース」と「日本製フルスクラッチ」ではサプライチェーンリスクの粒度が大きく異なる。完全自律性を求めるならPLaMo・Sarashina・tsuzumi・CALM3のようなフルスクラッチ国産が選択肢となる[2][8][9][10]

5. 価格・契約形態

2025年時点、APIトークン課金は海外勢(GPT-4o、Claude 3.5 Sonnet等)の2〜3倍が一般的で、推論を国内インフラに閉じる物理コストが反映されている[1][2]。一方、月額固定のオンプレ・プライベートクラウド契約(tsuzumi、PLaMo等)は数百万〜数千万円/年規模で、利用量が大きい大企業ではトークン課金より総額が下がる場合もある[9]。契約面では(1)プロンプトの学習二次利用禁止の明文化、(2)日本法準拠と東京地裁専属管轄、(3)ISMAP・SOC2・ISMS取得、(4)脆弱性開示・インシデント通知SLA、(5)再委託先開示の5点が要点[17]

6. 国家プログラム ― GENIAC・K Program・AI事業者ガイドライン

制度面は3つを押さえる。第1に経産省GENIAC。2024〜2025年に複数フェーズが実施され、Preferred Networks、SB Intuitions、ELYZA、Karakuri、Stockmark、rinna等が採択され計算資源・データ・評価基盤の支援を受けている[6]。第2に内閣府K ProgramでAI半導体・暗号・量子等と並んで生成AI基盤技術が重要技術指定[7]。第3に総務省・経産省「AI事業者ガイドライン」で開発者・提供者・利用者のガバナンス責任が明文化された[18]。CISOはこれらと自社AIガバナンスポリシーを整合させる必要がある。

7. CISO・情シス向けチェックリスト(5項目)

  • データ主権:学習データ所在、推論サーバ所在、ログ保管場所と期間を契約で明文化
  • サプライチェーン:ベースモデル(Llama系か独自か)、計算インフラ、再委託先を整理
  • 性能検証:汎用ベンチではなく自社代表業務でPoC評価(ベンチ汚染対策)
  • 認証・準拠:ISMAP・ISMS・SOC2・FISC・医療情報安全管理ガイドラインへの準拠
  • 出口戦略:モデル更新・サービス終了・ロックイン離脱手順、データポータビリティ

8. 打ち手 ― 国産LLM導入の現実解

すべての業務を国産に置き換えるのは現実的ではない。汎用要約・翻訳・コード支援は海外フロンティアが優位でコスパも高い。一方、機微情報を扱う業務(人事評価、契約書レビュー、医療カルテ要約、自治体個人情報、防衛・重要インフラ関連)は国産モデルに分離するハイブリッド構成が現実解である。アーキテクチャはAIゲートウェイ(Azure APIM、Kong AI Gateway、自社プロキシ等)を中央に置き、データ分類タグに応じてプロンプトの送信先モデルをポリシーで振り分ける構成が定着しつつある[19]。これでユーザー体験を統一しつつ機微データの越境を技術的に遮断できる。

「データ主権を語るなら、ベースモデルの素性まで遡れ。Llamaの上に和服を着せたモデルと、フルスクラッチ国産モデルでは、サプライチェーンの透明度がまったく違う。CISOは『日本製』ラベルではなく、学習データの来歴と推論パスの所在で評価すべきだ」――おまもりAI編集部

9. 結論3点

  • 結論1:日本製LLMは「全業務代替」ではなく「機微情報処理の専用チャネル」が現実的。汎用業務は海外フロンティアと併用
  • 結論2:「日本製」を一括りにせず、フルスクラッチ系(PLaMo・Sarashina・tsuzumi・CALM3)と継続学習系(ELYZA・Karakuri)でサプライチェーン透明度が異なる
  • 結論3:GENIAC・K Program・AI事業者ガイドラインと自社AIガバナンスを整合させ、ISMAP登録モデルを軸に調達ポリシーを策定する

10. 経営者視点 ― 外資LLMとのバランスと調達戦略

経営視点では、生成AI調達は単なるツール選定ではなく「情報資産のクラス分けと配置」のレイヤーで意思決定すべきテーマである。全社員にコパイロット型ツールを配るなら、価格・性能の総合力で外資フロンティア(GPT/Claude/Gemini)を主軸に据えるのが合理的だ。ただし機密データ(人事、財務未公開、顧客個人情報、知財、研究開発、契約書)が無自覚にプロンプトに混入するリスクは、利用ガイドライン・DLP・AIゲートウェイの3層で抑える必要がある。そのうえで機微データを意図的に処理する業務には国産LLMを別ラインで導入し業務分離を徹底する。

調達戦略は(1)2〜3社のマルチベンダー化でロックイン回避、(2)ISMAP登録モデルへの統一で政府・規制業界への展開余地を確保、(3)RAG基盤との分離でモデル差し替え可能性を担保、の3点。2026年以降はEU AI Actの適用拡大、日本のAI法制化議論、米国輸出管理規制(GPU・半導体)の動向で調達条件が流動的に変化する。CISO・情シス・法務・経営企画が四位一体でAIガバナンス委員会を運営し、四半期ごとに調達ポートフォリオを見直す体制が求められる。

参考文献

  1. ELYZA, Inc.「ELYZA Japanese LLM シリーズ/プロダクト一覧」 https://elyza.ai/
  2. Preferred Networks「PLaMo 2 公開/PLaMo Prime」 https://www.preferred.jp/ja/projects/plamo/
  3. カラクリ株式会社「KARAKURI LM プロダクトページ」 https://karakuri.ai/seminar/news/karakuri-lm/
  4. 個人情報保護委員会「個人情報保護法 第28条(外国にある第三者への提供の制限)」 https://www.ppc.go.jp/personalinfo/legal/
  5. Stability AI Japan「日本語LLM評価の現状(Nejumi解説)」 https://ja.stability.ai/blog
  6. 経済産業省「GENIAC 採択事業者一覧」 https://www.meti.go.jp/policy/mono_info_service/geniac/
  7. 内閣府「経済安全保障重要技術育成プログラム(K Program)」 https://www8.cao.go.jp/cstp/anzen_anshin/kprogram.html
  8. SB Intuitions「Sarashina 大規模日本語LLM」 https://www.sbintuitions.co.jp/sarashina/
  9. NTT「tsuzumi 軽量大規模言語モデル」 https://www.rd.ntt/research/LLM_tsuzumi.html
  10. CyberAgent「CyberAgentLM3-22B-Chat 公開」 https://www.cyberagent.co.jp/news/detail/id=30463
  11. NAVER/LINEヤフー「HyperCLOVA X 概要」 https://clova.line.me/clovastudio/
  12. Stockmark「Stockmark LLM プロダクト」 https://stockmark.co.jp/news/20240517
  13. rinna「rinna 日本語LLM研究成果」 https://rinna.co.jp/news/
  14. Weights & Biases「Nejumi LLMリーダーボード3」 https://wandb.ai/llm-jp-eval/nejumi-leaderboard3
  15. 「Japanese MT-Bench(Stability AI Japan / lm-sys)」 https://github.com/Stability-AI/FastChat
  16. Meta「Llama 2/3 Community License Agreement」 https://llama.meta.com/llama-downloads/
  17. 独立行政法人IPA「政府情報システムのためのセキュリティ評価制度(ISMAP)登録クラウドサービスリスト」 https://www.ismap.go.jp/csm
  18. 総務省・経済産業省「AI事業者ガイドライン(第1.0版/第1.1版)」 https://www.meti.go.jp/shingikai/mono_info_service/ai_shakai_jisso/
  19. Cloud Security Alliance「AI Gateway Architecture Patterns」 https://cloudsecurityalliance.org/research/artificial-intelligence/
  20. 独立行政法人IPA「AIセキュリティに関する調査・ガイダンス」 https://www.ipa.go.jp/security/ai/
SHARE 𝕏 in f

あわせて読みたい