この記事のポイント
- 楽天AI 3.0は約7,000億パラメータの日本語特化AIモデルで、無料・商用利用可能なApache 2.0ライセンスのオープンウェイトモデルとして公開されている
- DeepSeek-V3をベースに、日本企業である楽天が日本語データで追加学習したチューニングモデルという位置づけ
- 日本語ベンチマークで高スコアを達成し、文書作成・コード生成・文書解析など幅広い用途に対応
はじめに
「日本語に強いAIモデルが欲しいけど、海外のモデルだと日本特有の文脈がうまく伝わらない」「自社サービスにAIを組み込みたいけど、API利用料が気になる」
そんな悩みを持つ方に注目してほしいのが、楽天グループが2026年3月に公開した「Rakuten AI 3.0」です。
国内最大規模クラスの日本語特化AIモデルでありながら、Apache 2.0ライセンスのオープンウェイトモデルとして無償公開されており、商用利用も可能です。この記事では、Rakuten AI 3.0の特徴・性能・活用事例をわかりやすく解説します。
Rakuten AI 3.0の概要
Rakuten AI 3.0は、楽天グループが経産省・NEDOの「GENIACプロジェクト」の一環として開発した大規模言語モデルです。
| 項目 | 内容 |
|---|---|
| 開発元 | 楽天グループ |
| パラメータ数 | 約7,000億(MoEアーキテクチャ) |
| 対象言語 | 日本語に最適化(英語にも対応) |
| ライセンス | Apache 2.0(無料・商用利用可) |
| 公開場所 | Hugging Face上の楽天公式リポジトリ |
| 公開時期 | 2026年3月 |
2025年12月にモデルが発表され、ファインチューニングを重ねた上で2026年3月に一般公開されました。
技術的な特徴
Mixture of Experts(MoE)アーキテクチャ
Rakuten AI 3.0は「Mixture of Experts(MoE)」と呼ばれる設計を採用しています。
通常のAIモデルは、すべての質問に対してモデル全体を動かします。一方、MoEはタスクに応じて専門性の異なる「エキスパート」を選択的に動かす設計です。
通常のモデル:
質問 → モデル全体が処理 → 回答
MoEモデル:
質問 → 「この質問にはエキスパートAとCが得意だな」
→ エキスパートA・Cだけが処理 → 回答
これにより、パラメータ数は約7,000億と大規模ですが、実際に動く部分はその一部で済むため、効率的に動作します。
日本語に最適化された学習データ
楽天独自のバイリンガルデータと研究成果を組み合わせてトレーニングされています。日本固有の文化・歴史、ビジネス慣習に関する知識が豊富で、日本語の文脈を深く理解できるのが強みです。
ベースモデルはDeepSeek-V3
Rakuten AI 3.0の技術的な背景として、ベースモデルの話にも触れておきます。
楽天の公式リリースでは「オープンソースコミュニティ上の優良なモデルを基に開発」と記載されています。公開されたHugging Face上のconfig.jsonには model_type: "deepseek_v3" という記述があり、中国DeepSeek社のDeepSeek-V3がベースモデルであることが確認されています。
つまり、ゼロから作ったモデルではなく、DeepSeek-V3というオープンソースモデルを土台に、日本語特化で追加学習(ファインチューニング)したモデルという位置づけです。ベースは中国発のDeepSeek-V3ですが、学習データの追加や運用は楽天側で行われているため、「完全自前の国産LLM」というよりも「DeepSeekベースの日本語特化版」と理解するのが適切です。
これは問題なのか?
OSSのモデルをベースに追加学習を行うのは、AI業界ではごく一般的な手法です。Meta社のLlamaをベースにした派生モデルも世界中に多数存在します。
一方で、「国産」「国内最大規模」という打ち出し方と、ベースモデルの開示レベルをめぐって議論が起きているのも事実です。
技術的に押さえておきたいのは、Rakuten AI 3.0は「オープンウェイトモデル」として公開されているため、利用者の入力データがDeepSeek側に自動送信されるような仕組みにはなっていないという点です。ローカル環境やプライベートクラウドで安全に利用できます。
性能とベンチマーク
日本語の各種ベンチマークで高いスコアを達成しています。
| ベンチマーク | 評価内容 |
|---|---|
| JamC-QA | 日本語の質問応答能力 |
| MMLU-ProX | 大学院レベルの推論・知識 |
| MATH-100 | 競技数学レベルの計算力 |
| M-IFEval | 指示に正確に従う能力 |
特に複雑なタスク(長文読解、厳密な条件付き生成など)で、既存の楽天モデル(Rakuten AI 7B、Rakuten AI 2.0)から大きく精度が向上したと報告されています。
ユースケースと活用事例
想定される活用場面
| 用途 | 具体例 |
|---|---|
| ビジネス文書作成 | 報告書、提案書、メールの下書き生成 |
| カスタマーサポート | 問い合わせへの自動応答、FAQ生成 |
| 文書解析・要約 | 契約書やレポートの要点抽出 |
| コード生成 | プログラムの自動生成、コードレビュー補助 |
| マーケティング | 商品説明文、広告コピーの生成 |
楽天グループ内での活用
楽天グループ内でも、EC(楽天市場)、金融、通信などの各サービスへの順次導入が予定されています。
すでに楽天市場の検索にAIを活用した結果、検索ゼロ件率の低減や流通総額の増加といった成果が出ており、Rakuten AI 3.0によってさらなる高度化が期待されています。
社内検証では、同規模の既存モデルよりも処理コストを大きく削減できたとも報告されています。
海外LLMとの比較
| 項目 | Rakuten AI 3.0 | 一般的な海外LLM |
|---|---|---|
| 対象言語 | 日本語最適化、日本独自の文脈に強い | 英語中心、他言語は補助的 |
| パラメータ規模 | 約7,000億(MoE) | 数千億〜1兆規模、Dense/MoEなど多様 |
| 提供形態 | Apache 2.0で無償公開、商用利用可 | クラウドAPI提供が中心、モデル非公開も多い |
| 強み | 日本語ベンチマーク高スコア、日本文化・ビジネス慣習に強い | 英語圏の知識量とエコシステムの厚さ |
| 想定ユーザー | 日本市場向けの企業・開発者 | グローバル市場向けサービス提供者 |
海外の大手モデルと比べると、英語圏の知識量やエコシステムの厚さでは及ばない部分もあります。しかし、日本語の精度と日本特有の文脈理解においては、海外モデルにはない強みがあります。
入手方法
Rakuten AI 3.0はHugging Face上で公開されており、誰でもダウンロードできます。
- Hugging Faceの楽天公式リポジトリにアクセスする
- モデルファイルをダウンロードする
- ローカル環境やクラウド環境にデプロイして利用開始
Apache 2.0ライセンスのため、研究目的はもちろん、商用サービスへの組み込みも自由にできます。
ただし、約7,000億パラメータのモデルを動かすには相応のGPU環境が必要です。個人で試す場合は、量子化(モデルを軽量化する技術)されたバージョンを使うか、Google Colabなどのクラウド環境を利用するのがおすすめです。
まとめ
| 項目 | 内容 |
|---|---|
| Rakuten AI 3.0とは | 楽天グループが開発した日本語特化の大規模AIモデル |
| ベースモデル | DeepSeek-V3をベースに日本語で追加学習 |
| 規模 | 約7,000億パラメータ(MoEアーキテクチャ) |
| ライセンス | Apache 2.0(無料・商用利用可) |
| 強み | 日本語ベンチマーク高スコア、日本文化・ビジネス慣習の理解 |
| 向いている場面 | 日本市場向けサービス、日本語の文書処理、国内データを扱う業務 |
Rakuten AI 3.0は、「日本語に強い」「無料で商用利用できる」「ローカルで動かせる」という3つの特徴を兼ね備えたモデルです。日本市場でAIを活用したい企業や開発者にとって、有力な選択肢になるでしょう。
関連記事
AI導入でお困りですか?
「日本語に強いAIモデルを自社サービスに組み込みたい」「どのモデルが自社の用途に合うかわからない」
そんなご要望がありましたら、AI DARUMAにご相談ください。日本語AI活用の検討から導入までをお手伝いします。
〒723-0062 広島県三原市本町 1丁目7-29 2階 コワーキングスペースarica内