Gemma4:26bをOpen WebUIを使ってChatGPT風のGUIで利用する具体的手順です。

昨日予告した、Gemma4: 26bモデルをグラフィカルユーザーインタフェース(GUI)で使えるようにする手順です。Dockerの設定は昨日の技術評論社のサイトにある方法に基づいています。

Ubuntuで「Gemma 4:26b」をGUIで使う最短セットアップガイドです。Open WebUIというソフトを使ってコマンドラインではなく、ChatGPT風の画面で使えるようになります。


Ubuntuで最強クラスのローカルAI「Gemma 4:26b」を、ChatGPTのような使いやすい画面(Open WebUI)で動かせるようになるまでの手順です。

1. Ollamaのインストールを行います。(OllamaはいろんなローカルLLMを自分のパソコンで動かせるようにしてくれるソフトです)
ターミナルを開き、以下のコマンドをコピー&ペーストして実行します。

curl -fsSL https://ollama.com/install.sh | sh

2. 外部アクセス許可の設定(Docker連携の準備)(※1)
Docker(GUI)からOllama本体を見えるようにするため、Ollamaの設定を1箇所だけ書き換えます。以下のコマンドを実行します。

sudo systemctl edit ollama.service

エディタのnano editorというのが開くので、開いた画面の末尾に、以下の内容を貼り付けます(nano editorの使い方については※2参照)。
[Service]
Environment=”OLLAMA_HOST=0.0.0.0″
Environment=”OLLAMA_ORIGINS=*”
保存して終了し、ターミナルで以下のコマンドをうって、設定を反映させます。
sudo systemctl daemon-reload
sudo systemctl restart ollama

3. モデル(Gemma 4:26b)のダウンロードを行います。
ターミナルでモデルをあらかじめ取得しておきます。モデルの取得はOllamaを介して次のコマンドで行います。
ollama run gemma4:26b

※ダウンロードが完了し、適当なプロンプトを入れてチャットが始まったらGemma4: 26bがコマンドラインで動くようになっています。 /bye と打って終了してOKです。

4. Open WebUI(GUI)の起動
Dockerを使い、Ubuntuに最適化された設定でGUIを立ち上げます(※3)。

docker run -d -p 3000:8080 \
–add-host=host.docker.internal:host-gateway \
-e OLLAMA_BASE_URL=http://host.docker.internal:11434 \
-v open-webui:/app/backend/data \
–name open-webui \
ghcr.io/open-webui/open-webui:main

5. ブラウザでアクセスして完了!
ブラウザで http://localhost:3000 を開きます。(※4)

最初のユーザー作成(ローカル専用)を済ませてログインします。

画面上のモデル選択から gemma4:26b を選べば、対話開始です!
完全にローカルで、プライバシーや機密情報を保護した状態でAIが使えるようになりました!

🛠 躓きやすいポイントの解説(脚注)
(※1)なぜ「外部アクセス許可」が必要なの?
Dockerコンテナは、Ubuntu本体とは別の「箱」の中で動いています。デフォルトのOllamaは「箱の外」からの通信を拒否するため、ステップ2の設定で「どこからでも繋いでいいよ」と許可を与えてあげる必要があるのです。

(※2)nanoエディタが開くので、その操作で迷った時の対策です。
sudo systemctl edit で開く画面では、マウスが使えません。
以下の手順で操作してください。
カーソルの上下移動:キーボードの↑、↓キーでカーソルを上下に移動します。
貼り付け: Ctrl + Shift + V
保存: Ctrl + O を押した後、必ず Enter キーを押して確定させてください(※ここを忘れると保存されません)。
終了: Ctrl + X でターミナルに戻ります。

(※3)ブラウザでエラー(500 Internal Error)が出た場合
GUIは立ち上がったけれど「500エラー」が出る、またはモデルが選択肢に現れない場合は、一度ログアウトして再ログインしてみてください。それでもダメな場合は、設定の反映を確実にするために以下のコマンドでOllamaを再起動しましょう。
sudo systemctl restart ollama

(※4)ポート番号について
本手順では、UbuntuのDocker標準に合わせた設定を行っています。もし http://localhost:3000 で繋がらない場合は、http://localhost:8080 も試してみてください。