こんにちは、AIニュースアプリ Morning AI 開発者の矢野哲平です。この記事ではGoogleが発表したオープンモデル Gemma 4 について触れます。
Gemma 4: Byte for byte, the most capable open models - Google Blog
Gemma 4の概要
2026年4月2日、Google DeepMindがGemma 4を公開しました。Gemini 3の技術をベースにした軽量オープンモデルで、「パラメータあたりの知能」を重視した設計です。
ライセンスはApache 2.0。
商用利用もファインチューニングも制限なく行えます。これまでのGemmaシリーズは累計4億回以上ダウンロードされ、10万以上の派生モデルが作られています。
ちなみに私もプロジェクトでGemma 3を使用してきましたが、軽量ながら扱いやすいモデルだと感じています。
そのGemma 3が新しく4にバージョンアップしたということで嬉しい限り。
4つのモデルバリエーション
Gemma 4は用途に応じた4サイズ展開です。
- E2B
- E4B
- 26B
- 31B
26Bと31Bはマシン上での操作を想定しています。
一方、E2BやE4Bはモバイル上での操作を想定しています。
スマートフォンやラズベリーパイのような小さなデバイスで稼働させることができます。
マルチモーダル対応
全モデルがテキストと画像を入力として受け付けます。面白いのは、小さいモデル(E2B・E4B)の方が音声入力にも対応している点です。大きいモデルは音声非対応。エッジデバイスでの音声処理需要を見越した設計かなと思います。
Vision Encoderは可変アスペクト比に対応し、70〜1,120トークンの範囲でトークン予算を調整できます。音声は最大30秒、動画は最大60秒まで処理可能です。
エージェント機能
Gemma 4は関数呼び出しや構造化されたJSON出力などをネイティブでサポートしています。
様々なツールやAPIと連携し、ワークフローを自律的に実行するエージェントも構築可能です。
デバイス上で完結するオフラインなエージェントを構築できるのは、大きな強みになりそうです。
その他の特徴
- より長いコンテキスト
- 140以上の言語に対応
利用方法
提供プラットフォームは幅広いです。
- Hugging Face
- Google AI Studio
- llama.cpp
- Ollama
- LM Studio
- MLX ..etc
オープンモデルの競争力が上がっている
Gemma 4は「オープンモデルでもここまでできる」ことを示す良い例だと思います。Apache 2.0で商用利用可能、エッジデバイスからワークステーションまで対応、140以上の言語をサポート。
オープンモデルの選択肢が充実してきた分、用途に応じた使い分けがより重要になってきています。