こんにちは、AIニュースアプリ Morning AI 開発者の矢野哲平です。この記事ではGoogleが発表したオープンモデル Gemma 4 について触れます。

Gemma 4: Byte for byte, the most capable open models - Google Blog

Gemma 4の概要

2026年4月2日、Google DeepMindがGemma 4を公開しました。Gemini 3の技術をベースにした軽量オープンモデルで、「パラメータあたりの知能」を重視した設計です。

ライセンスはApache 2.0。

商用利用もファインチューニングも制限なく行えます。これまでのGemmaシリーズは累計4億回以上ダウンロードされ、10万以上の派生モデルが作られています。

ちなみに私もプロジェクトでGemma 3を使用してきましたが、軽量ながら扱いやすいモデルだと感じています。

そのGemma 3が新しく4にバージョンアップしたということで嬉しい限り。

4つのモデルバリエーション

Gemma 4は用途に応じた4サイズ展開です。

  • E2B
  • E4B
  • 26B
  • 31B

26Bと31Bはマシン上での操作を想定しています。

一方、E2BやE4Bはモバイル上での操作を想定しています。

スマートフォンやラズベリーパイのような小さなデバイスで稼働させることができます。

マルチモーダル対応

全モデルがテキストと画像を入力として受け付けます。面白いのは、小さいモデル(E2B・E4B)の方が音声入力にも対応している点です。大きいモデルは音声非対応。エッジデバイスでの音声処理需要を見越した設計かなと思います。

Vision Encoderは可変アスペクト比に対応し、70〜1,120トークンの範囲でトークン予算を調整できます。音声は最大30秒、動画は最大60秒まで処理可能です。

エージェント機能

Gemma 4は関数呼び出しや構造化されたJSON出力などをネイティブでサポートしています。

様々なツールやAPIと連携し、ワークフローを自律的に実行するエージェントも構築可能です。

デバイス上で完結するオフラインなエージェントを構築できるのは、大きな強みになりそうです。

その他の特徴

  • より長いコンテキスト
  • 140以上の言語に対応

利用方法

提供プラットフォームは幅広いです。

  • Hugging Face
  • Google AI Studio
  • llama.cpp
  • Ollama
  • LM Studio
  • MLX ..etc

オープンモデルの競争力が上がっている

Gemma 4は「オープンモデルでもここまでできる」ことを示す良い例だと思います。Apache 2.0で商用利用可能、エッジデバイスからワークステーションまで対応、140以上の言語をサポート。

オープンモデルの選択肢が充実してきた分、用途に応じた使い分けがより重要になってきています。