UbuntuのOllamaでGemma4を使う具体的手順

Googleが4月2日に公開したローカルで動くAI (Gemma 4)は利用者が設定しない限り外部に情報を一切もらさないので機密情報を扱うのに適したAIです。基本的にAIは、今年の4月までに学習した内容に基づいて回答します。OllamaにしろGemma4本体にしろネットへの情報送信受信は行わないようになっているとのことです。AIとのやりとりはPCのOllamaのログなどに残るだけです。ネット接続するのはユーザーが指示した場合のみです。たとえば検索機能を持つツール(例:Open WebUIのブラウジング機能、LangChain、自作のPythonスクリプトなど)をユーザーが導入し、Gemma 4に「検索して」という命令(Function Calling)を許可した場合のみネット接続します。今までローカルのAIの性能は低かったのですが今回のGemma4は実用に耐えるレベルになっていて、手元のPCで動かしてみると使い物になると思われる人が多いのではないでしょうか。

Ubuntu への導入法をGeminiに教えてもらってまとめました。


【UbuntuでGemma 4を動かす:OllamaによるローカルAI構築ガイド】
セキュリティとプライバシーを最高レベルで保ちつつ、Googleの最新モデル「Gemma 4」をUbuntuで動かす手順を解説します。

ステップ1:システムの準備
まず、Ubuntuのパッケージを最新の状態にします。ターミナル(Ctrl+Alt+T)を開いて、以下のコマンドを入力してください。
sudo apt update && sudo apt upgrade -y

ステップ2:Ollamaのインストール

Ollamaは、複雑な設定なしにローカルでAIを動かせる非常に便利なツールです。以下の1行をコピー&ペーストして実行するだけで、インストールが完了します。
curl -fsSL https://ollama.com/install.sh | sh
このコマンドは公式のOllamaのインストールスクリプトをダウンロードして実行するものです。完了すると、自動的にバックグラウンドでサービスが起動します。

ステップ3:Gemma 4:26Bモデルのダウンロードと起動

インストールが終わったら、いよいよGemma 4を動かします。今回使用する `26b` モデル(MoE方式)を呼び出します。
ollama run gemma4:26b
このコマンドを実行すると:
1. 初回実行時は、モデルデータ(多分約19GBだったと思います)のダウンロードが始まります。
2. ダウンロードが終わると、自動的に `>>>` という入力待ち状態になります。
3. ここに日本語で質問を入力すれば、その場ですぐにAIとの対話が始まります!日本語で簡単なプロンプトをいれて応答が返ってくるのを確かめてください。これでGemma4が利用できるようになりました。

覚えておくと便利な操作コマンド
・AIとの対話を終了する:  /bye と入力してエンター
・インストール済みモデル一覧を見る: ollama list
・不要になったモデルを削除する: ollama rm gemma4:26b
・Ollamaのバージョンを確認する: ollama –version


【PCのスペックについての注意です】
Gemma 4:26Bは非常に強力ですが、快適に動かすには以下のスペックが理想的です。
* メモリ (RAM): 24GB以上推奨(32GBあると安心です)。
* GPU: NVIDIA製のグラフィックボード(VRAM 16GB以上)があると高速ですが、UbuntuならCPUだけでも時間はかかりますが動作します。私のPCは古いNVIDIAのGPUでメモリーも少ないのでGPUは使わないでCPUのみで動くように自動的に設定されました。それでも結構さくさく動きます。

 なぜ「26B」がおすすめなのか
今回選んだ `26b` は「Mixture-of-Experts (MoE)」という仕組みを採用しています。これは、260億のパラメータを持ちながら、計算時にはその一部(4B分)だけを効率よく使うため、「賢いのに動作が軽い」といういいとこ取りのモデルです。

セキュリティの確認
この手順で動かしている間、データは自分のPCの外へは一歩も出ません。インターネットを切断した状態でも動作することを確認してみると、その「プライバシー性能」を実感できると思います。


自分のPCのスペックが 26B が動かない場合はどうするかですが以下のようなモデルを使ってみるのがおすすめです。モデルの設定法は、 26B の時のコマンドollama run gemma4:26bでモデル名の部分(gemma4:26bの部分)を変えるだけでOKです。前にダウンロードして使わなかったモデルは上に書いてある、「不要になったモデルを削除するコマンド」: (ollama rm gemma4:26b)などで消してから設定してください。

Gemma 4には、PCの性能や用途に合わせて4つのサイズが用意されています。
1. 「まずは試してみたい!」軽量モデル(E2B / E4B)
「E」は Effective(実効的) を意味し、少ないメモリでも驚くほど賢く動くよう設計されています。
gemma4:e2b (約1.5GB)
* おすすめ: メモリが少ないノートPC(8GB程度)や、とにかく爆速で回答が欲しい人。
* 特徴: 20億パラメータクラスとは思えないほど日本語がスムーズです。簡単なチャットやテキスト要約に最適です。
gemma4:e4b (約3GB)
* おすすめ: 一般的な家庭用PC。速度と賢さのバランスをとりたい人。
* 特徴: E2Bよりも「推論(考える力)」が一段上で、少し複雑な指示やプログラミングの相談もこなせます。

2. 「本格的に使いたい!」高性能モデル(26B / 31B)
高度な研究や、複雑なデータ解析、長文のブログ執筆のパートナーにするならこちらです。

gemma4:26b (約16GB)
* おすすめ: グラフィックボード(GPU)を搭載したPCや、メモリを32GB以上積んでいる人。
* 特徴: 迷ったらこれ! 260億パラメータという巨大な知識を持ちつつ、MoE(混合エキスパート)という技術で「必要な時だけ必要な部分を使う」ため、動作が非常に軽快です。
gemma4:31b (約19GB)
* おすすめ: 最強の性能を求める人。GPUのメモリ(VRAM)が24GB以上あるハイエンド環境。
* 特徴: Gemma 4ファミリーで最も賢いモデルです。256Kという非常に長い文章(本数冊分)を一気に読み込ませることも可能です。

「自分のPCには26Bは重いかも…」と思った方は、以下のコマンドを試してみてください。
軽量なE4Bモデルを動かす場合
ollama run gemma4:e4b

Geminiによると、メールの返信案を作らせる程度の用途なら E4B
「難しい科学論文の要約やコード作成」などの用途なら 26B 以上という感じだそうです。皆さんもまず、E4Bあたりからためしてみて自分の用途にあうモデルを見つけてみるとよいと思います。