paloma blog

NWエンジニアやってます。主に自宅環境のお遊びを書きます。Pythonもちょっと。タイトルは好きなカクテルから。

ローカル環境にLLMのGenma3をインストールする

ChatGPT、Gemini、Copilotなど色々なAIアシスタントツールがでてきました。
私も最近ようやくいろいろ質問して遊ぶようになりました。 私はAndroidを使ってる関係もありGeminiをよく使ってます。

一応IT業界にいるのでこの手の記事もチェックしてはいるのですがこんな記事を見つけました。

https://www.itmedia.co.jp/aiplus/articles/2503/12/news197.html

オープンなLLMとな。 LLMは効いたことがあるけど結局何なのかわかっていませんでした。

ちなみに公式はこちらです。

ai.google.dev

AIの一種である感じではありますがどうやって使うんだろう?と思って数ヶ月。
何きっかけか忘れましたがGeminiに聞いてみました。

ローカルPCでGoogleのGemmaモデルを動かす方法はいくつかあります。以下に代表的な方法と、それぞれの概要、必要な手順をまとめました。

1. Ollama を利用する方法 (比較的簡単)

概要: Ollamaは、LLMを簡単にローカル環境で実行するためのツールです。GemmaもOllamaを通じて簡単に利用できます。
メリット: インストールが比較的簡単で、コマンドラインから手軽にGemmaモデルをダウンロードして実行できます。

手順:
Ollama のインストール: Ollamaの公式サイト (https://ollama.com/) から、お使いのOSに合ったインストーラーをダウンロードしてインストールします。
Gemma モデルのダウンロード: コマンドプロンプトまたはターミナルを開き、以下のコマンドを実行してGemmaモデルをダウンロードします。利用したいモデルのサイズ(例: 7b, 2b)を指定できます。

Bash
ollama pull gemma:7b
# または
ollama pull gemma:2b

Gemma モデルの実行: ダウンロードが完了したら、以下のコマンドでGemmaモデルを実行できます。
Bash
ollama run gemma:7b
# または
ollama run gemma:2b


プロンプトの入力: モデルが起動すると、プロンプトを入力できるようになります。

ほかにもPythonのライブラリ経由で呼び出す方法やDocketを使うやり方がありましたが比較的簡単とある通りollamaというアプリ経由でGenmaを使ってみることにしました。

ブラウザで使えるAIツールでいいじゃんと思うかもしれませんがローカル環境に入れたくなるのはエンジニアの性でしょうか。

軽量とうたわれているのでUbuntuにインストールしてみます。

Ubuntuへインストール

古いNUCのUbuntu24です。 ドキュメントどおりにインストール。

github.com

❯ curl -fsSL https://ollama.com/install.sh | sh
>>> Installing ollama to /usr/local
[sudo] masashi のパスワード:
>>> Downloading Linux amd64 bundle
######################################################################## 100.0%
>>> Creating ollama user...
>>> Adding ollama user to render group...
>>> Adding ollama user to video group...
>>> Adding current user to ollama group...
>>> Creating ollama systemd service...
WARNING: systemd is not running
>>> The Ollama API is now available at 127.0.0.1:11434.
>>> Install complete. Run "ollama" from the command line.
WARNING: No NVIDIA/AMD GPU detected. Ollama will run in CPU-only mode.
>>> The Ollama API is now available at 127.0.0.1:11434.
>>> Install complete. Run "ollama" from the command line.

これでOK。次はモデルをインストールします。

❯ sudo systemctl start ollama.service
❯ ollama -v
ollama version is 0.6.5
❯
❯ ollama run gemma3:4b
pulling manifest
pulling aeda25e63ebd... 100% ▕█████████████████████████████████████████████████████████████████████▏ 3.3 GB
pulling e0a42594d802... 100% ▕█████████████████████████████████████████████████████████████████████▏  358 B
pulling dd084c7d92a3... 100% ▕█████████████████████████████████████████████████████████████████████▏ 8.4 KB
pulling 3116c5225075... 100% ▕█████████████████████████████████████████████████████████████████████▏   77 B
pulling b6ae5839783f... 100% ▕█████████████████████████████████████████████████████████████████████▏  489 B
verifying sha256 digest
writing manifest
success
>>> Send a message (/? for help)

2番目のサイズの4bモデルをインストール。
これで対話式で質問ができます。

サンプルの質問を投げてみます。

>>> LLMを使いこなすには?
LLM(Large Language Model:大規模言語モデル)を使いこなすには、単に質問を投げかけるだけでなく、その特性を理解し、適
切な指示(プロンプト)を与えることが重要です。以下に、LLMを最大限に活用するためのポイントをまとめました。

これだけで5分ほどかかったので強制停止しました。
CPUリソースも張り付きです。

軽量ではあるもののさすがにCeleronではダメだったか。

❯ sudo lshw -class processor
[sudo] masashi のパスワード:
  *-cpu
       詳細: CPU
       製品: Intel(R) Celeron(R) CPU J3455 @ 1.50GHz
       ベンダー: Intel Corp.

この後1bモデルもためしましたが結果は同じでした。

Windowsへインストール

Windowsもこれまた古めの機器ですがゲームが問題なく遊べる程度のスペックはあります。
なのでこちらにインストールしてみます。

Windows版はインストーラーがあるので割愛。

起動は同じコマンドでPowershell経由で起動します。

PS C:\Users\masashi> ollama run gemma3:1b

こちらもCorei5の第4世代で古いマシンですが、4bモデルは100%張り付いてしまいました。

しかし1bモデルに変更したところ応答もスムーズで軽快に動きました。

1bモデルはテキスト処理しかできなく、データ量も最小ですがまあローカルで遊ぶ分には問題ないでしょう。
1bモデルで質問してみます。

>>> GeminiとGenmaの違いは?
GeminiとGenmaは、Googleによって開発された、大規模言語モデル(LLM)ですが、それぞれ異なる特徴と用途があります。以下に
主な違いをまとめます。

**1. 開発者と目的:**

* **Gemini:** Googleが開発した、複数の専門分野(画像、音声、動画、テキストなど)を同時に理解・処理できる多機能LLMで
す。
* **Genma:** OpenAIが開発した、特に創造的なテキスト生成と会話に特化したLLMです。

**2. アーキテクチャと学習データ:**

* **Gemini:** Mosaic AIのGeminiモデルをベースに、マルチモーダル(画像、テキスト、音声など)学習を重視しています。
* **Genma:** GPT-4をベースに、より創造性や物語性のあるテキスト生成に特化しています。

**3. 主要な特徴:**

| 特徴           | Gemini                               | Genma                               |
| -------------- | ---------------------------------- | ---------------------------------- |
| **得意なこと** | 複雑な質問への回答、多様なタスク、多媒体処理 | 詩、物語、創造的なテキスト生成、会話 |
| **処理速度**     | 高速                              | 比較的遅い                             |
| **創造性**       | 高い                              | 高い                              |
| **計算資源**     | 大量の計算資源が必要                  | 比較的少ない計算資源で動作                     |
| **用途例**      | 意思決定支援、研究、創造的な業務     | 詩の作成、プログラミングアシスト、会話 |

**4. 比較**

* **Geminiは幅広い知識と推論能力を持つ**ため、情報検索や複雑な問題解決に適しています。
* **Genmaは、創造性と物語性を重視**し、詩や物語のようなコンテンツの生成に優れています。

**5. まとめ:**

GeminiとGenmaは、それぞれ異なる目的と得意分野を持っています。どちらを使用するかは、あなたの目的に合わせて選ぶと良い
でしょう。

より詳細な比較や、それぞれのモデルの具体的な能力については、以下の情報を参考にしてください。

* **Gemini:**
[https://ai.googleblog.com/2024/01/gemini-the-multimodal-ai-that-is-the-future.html](https://ai.googleblog.com/2024[https://ai.googleblog.com/2024/01/gemini-the-multimodal-ai-that-is-the-future.html](https://ai.googlblog.com/2024/01/gemini-the-multimodal-ai-that-is-the-future.html)
* **Genma:** [https://openai.com/blog/genma-creative-ai](https://openai.com/blog/genma-creative-ai)

ご希望に応じて、それぞれのモデルについてより詳しく解説することも可能です。

1bではまだ信頼性は低そうですね。
Genmaは自身を作ったGoogle社の製品ですからね。
フィードバックとか送れるのかしら。

まとめ

我が家のローカル環境にもAIがやってきました。

今回はローカル環境にインストールしましたがLLMは、というかAIを動かすのはCPUを食うのを体感できました。
ローカルで動かすより各社のツールやクラウドプラットフォーム系を使うほうが快適に動かせそうですね。
でも使い放題というのは意外とありがたいもので、今回のGenmaも使っていろいろ遊んでみます。