Google Gemma 4が登場 — Apache 2.0で商用利用完全解放、オープンAIモデルの勢力図が変わる

はじめに

2026年4月2日、Google DeepMindが新たなオープンモデルファミリー「Gemma 4」をリリースした。Gemini 3と同じ研究基盤から構築された最新モデルは、31B Dense・26B MoE・E4B・E2Bの4サイズで展開され、マルチモーダル入力とエージェント機能をネイティブサポートする。最大の注目点は、これまでの独自ライセンスからApache 2.0への転換だ。この記事では、Gemma 4の技術的な特徴と、オープンモデル市場への影響を解説する。

Gemma 4の全貌 — 4サイズ・2アーキテクチャの詳細

Gemma 4は用途に応じて選べる4つのモデルサイズを提供する。

モデルパラメータアーキテクチャコンテキスト長主な用途
31B Dense310億Dense256Kサーバー・クラウド推論
26B MoE260億(有効パラメータはより少ない)Mixture of Experts256K効率重視のサーバー推論
E4B実効40億相当Dense128Kデスクトップ・エッジ
E2B実効20億相当Dense128Kモバイル・IoT

31B DenseモデルはArena AIテキストリーダーボードで世界3位のオープンモデルにランクインしており、26B MoEも6位を確保している。特筆すべきベンチマーク結果は以下の通りだ。

  • AIME 2026(数学推論): 89.2%
  • GPQA Diamond(科学知識): 84.3%
  • LiveCodeBench v6(コーディング): 80.0%
  • MMLU(多言語QA): 85.2%

前世代のGemma 3 27Bからの性能向上は顕著で、特に数学・推論タスクでの改善が大きい。E2BとE4Bのエッジモデルもネイティブ音声入力に対応しており、スマートフォンやIoTデバイス上でのリアルタイム音声認識・理解が可能になった。

Apache 2.0への転換が意味するもの

Gemma 4最大の戦略的変化は、ライセンスのApache 2.0への移行だ。

Gemma 3までは「Gemma Terms of Use」という独自ライセンスが適用されていた。商用利用は許可されていたものの、利用規約に従う必要があり、企業の法務部門にとっては追加の精査が必要だった。Apache 2.0はOSI認定のオープンソースライセンスであり、以下の点で大きく異なる。

  • 改変・再配布の自由: ファインチューニングしたモデルを自由に配布・販売できる
  • 特許権の明示的な付与: Googleが保有する関連特許のライセンスも含まれる
  • 利用制限なし: 以前の独自ライセンスにあった用途制限が撤廃された

これにより、Gemma 4はMeta Llama 4の独自ライセンス(月間アクティブユーザー7億人制限あり)に対して、ライセンス面で明確な優位性を持つことになる。Qwen 3.5(Apache 2.0)やDeepSeek(MIT)と同等の自由度だ。企業がオープンモデルを本番環境に採用する際、ライセンスの法的リスクは大きな判断材料になる。Apache 2.0への転換は、Gemma 4の技術力以上に企業採用を加速させる可能性がある。

オープンモデル競争の現在地 — Gemma 4の立ち位置

2026年4月現在、主要なオープンモデルの勢力図は激しく動いている。

Meta Llama 4: ScoutとMaverickの2モデルをMoEアーキテクチャで展開。Scoutの1,000万トークンコンテキストは圧倒的だが、MoEルーティングのオーバーヘッドにより推論速度ではDenseモデルに劣る。

Alibaba Qwen 3.5/3.6: 数学・コーディング・多言語タスクでトップクラスの性能。特にCJK言語(中国語・日本語・韓国語)での性能は群を抜いており、日本語タスクでの精度はLlamaを10ポイント以上上回る。Qwen3.6-Plusも本日発表された。

Google Gemma 4: バイト当たりの性能効率で勝負。Gemma 3で導入されたハイブリッドスライディングウィンドウ設計は、KVキャッシュのメモリ効率でLlama 3.1の3.1倍を達成しており、Gemma 4でもこの設計思想は継承されている。限られたGPUメモリでの推論効率は大きな強みだ。

エンジニアにとって重要なのは、もはや「どのモデルが最強か」ではなく「自分のユースケースに最適なモデルはどれか」という選択の時代に入っているということだ。長大なドキュメント処理ならLlama 4、日本語精度ならQwen、メモリ効率とエッジ展開ならGemma 4という使い分けが現実的だろう。

エンジニアへの影響 — Gemma 4をどう活用するか

ローカル開発での活用

Gemma 4はOllama、LM Studio、Docker経由ですぐに利用でき、NVIDIAもRTX向けに最適化済みのバイナリを提供している。E4Bモデルは一般的なデスクトップPCでも動作し、ローカルでのコード補完やドキュメント要約に実用的な性能を発揮する。

エージェント開発

Gemma 4はネイティブの関数呼び出し(Function Calling)と構造化JSON出力に対応しており、ツール連携型のAIエージェントを構築しやすい。システムインストラクションもネイティブサポートされているため、役割設定やガードレールの実装が容易だ。

エッジAI・モバイル展開

E2Bモデルの128Kコンテキスト長は、エッジモデルとしては破格だ。Google AI Edgeフレームワークを使えば、Android/iOSアプリへの組み込みも可能。音声入力のネイティブサポートにより、オンデバイスの音声アシスタントやリアルタイム翻訳といったユースケースが現実的になる。

まとめ

  • Gemma 4は31B/26B/E4B/E2Bの4サイズ展開で、マルチモーダル・エージェント機能をネイティブサポート
  • Apache 2.0ライセンスへの転換により、企業での商用採用の障壁が大幅に低下
  • 数学推論89.2%(AIME 2026)、科学知識84.3%(GPQA Diamond)と、オープンモデルトップクラスの性能
  • メモリ効率に優れたアーキテクチャで、ローカル・エッジ展開に強い
  • Llama 4、Qwen 3.5/3.6との競争が激化し、用途別の最適モデル選択がエンジニアの重要スキルに

オープンAIモデルの進化速度は加速する一方だ。Gemma 4のApache 2.0採用は、Googleが「オープンで勝つ」戦略に本腰を入れたシグナルであり、今後のモデル選定の基準を変える可能性がある。

ソース