ChatGPT Plusの無料期間が終わったので、代替にローカルAI使いたいなと、試行錯誤しています。
実際に使ってみるとそれぞれ長所短所があるもので、ChatGPT(というより、大規模モデル)がいかに優秀か痛感しています。
そこで、「Qwen3とGemma4、結局どっちが使えるの?」
軽さで選ぶべきか、それとも精度で選ぶべきか。
スペックに限りがある環境だと、この判断はかなり重要です。
結論から言うと、今回の環境ではGemma4の方が明らかに実用的でした。
ただし、その理由は単純な性能差ではありません。
実際に検証してみると、
- Qwen3 VL 8Bは重すぎて動作崩壊(ブラックスクリーンで終了)
- Qwen3 14Bは動くが、内容にズレが多い
- Gemma4 E4Bは安定していて違和感が少ない
という、かなりはっきりした結果になりました。
この記事では、RTX3080Ti環境で実際に検証した結果をもとに、
「どのモデルを選べばいいのか」をわかりやすく解説します。
検証環境
今回の検証は、ハイエンド寄りゲーミングPC環境で行っています。
GPUは2世代も前のものになってしまいましたが、まだまだ現役でかわいがってます。
使用したPC構成
- GPU: RTX 3080ti 12GB
- CPU: Core Ultra 9 285K (270K登場で息してない)
- RAM: DDR5 96GB
使用ソフト・モデル
- LM Studio
- Qwen3 VL 8B (Q4_K_M)
- Qwen3 14B (Q4_K_M)
- Gemma4 E4B (Q8)
用語の簡単な解説(読み飛ばしてもOK)
- 8B / 14B:Billion(億)。モデルの規模(パラメータ数)。数字が大きいほど高性能だが、その分重くなる。
- Q4_K_M / Q8:AIを軽くするための圧縮レベル。
数値が低いほど軽くなる(圧縮レベルが高い)が、精度は落ちやすい
※量子化とは、AIのデータを軽くするために少しだけ情報を削る処理のことです。
その分動作は軽くなりますが、精度はわずかに下がります。
(イメージとしては、画像をJPEG圧縮するようなもので、軽くなる代わりに細かい情報が少し失われます。) - VL(Vision Language):画像入力にも対応したモデル。通常モデルより負荷が高い
Qwen3 VL 8Bは重すぎて動作崩壊
まず最初に試したのが、画像読み込みに対応しているQwen3のVL 8B (Q4_K_M)です。
ChatGPTには結構スクショを送って回答をもらったりするので、同じ使用感で使えるならそれがベストだと思い試しました。
結果はかなり厳しいものでした。
ブラックスクリーン・KMODEエラーでまともに動かない
実際に使ってみると、
- 画面がブラックアウトする
- KMODEエラーで強制終了
- そもそもまともに応答しない
といった状態になり、安定して使うことはできませんでした。
※KMODEエラー(KMODE_EXCEPTION_NOT_HANDLED)は、Windowsのカーネルレベルで処理できないエラーが発生した際に表示されるもので、要はGPUの限界を超えた結果PCが落ちたと考えられます。
原因はシンプルに”重すぎる”
Qwen3 VLは表記上「VRAM12GBでも動作可能(完全なGPUオフロード可能)」とされていますが、
実際には画像処理や会話のキャッシュなど必要なVRAMが別途発生するため、余裕はほとんどありません。
ていうか足りません。
画像入力を行うと一気に負荷が上がり、VRAMが不足する状態になります。
今回の環境(RTX3080Ti・VRAM 12GB)では、
明らかに処理が追いついておらず、実用は難しいと感じました。
まぁChatGPTとスクショのやり取りするのって、私の場合文章のコピペがめんどいってだけなので、そこは妥協するか…
Qwen3 14Bは動作は安定するが精度に難あり
次に試したのが、Qwen3 14B(Q4_K_M)です。
Qwen3 VLとは違い、こちらはテキスト専用モデルのため、
今回の環境でも問題なく動作しました。
動作自体は安定している
実際に使ってみると、
- ブラックスクリーンなどのクラッシュはなし
- 応答速度も比較的安定
- 普通に会話としては成立する
といった感じで、「とりあえず使える」状態ではありました。
ただし回答のズレ・誤情報が目立つ
使っていく中で気になったのが回答の精度です。
- それっぽいが内容がズレている
- 自信ありげに間違ったことを言う
- 細かい部分での不整合が多い
といったケースが多く、正確性が求められる用途では不安が残る印象でした。
RTX 3060と3060tiのVRAM数を勘違いしたまま断言してきたりします。
(うちのチーウェン君は、3060tiはVRAM 8GBなのに、12GBと断言してきます。)
用途によっては“使えない”レベル
軽さや動作の安定性という意味では優秀ですが、
情報の正確さという点では課題あり。
自分の全く無知なジャンルを出力させる場合など、結局1から調べて誤情報の修正が発生するので実務ではおすすめできません。
Gemma4 E4Bは安定性と精度のバランスが良い
最後に試したのが、Gemma4 E4B(Q8)です。
結論から言うと、今回の環境ではこのモデルが最もバランス良く、
実用的に使えると感じました。
※E4Bとは実質7.5B相当のモデルで、常に全体を動かすのではなく必要な一部のみを使い処理する仕組みです(Mixture of Experts)。
そのため、見た目のサイズより軽く動作しつつ、精度もある程度保たれています。
少なくともこの構成では、「とりあえずこれを選んでおけば問題ない」と言えるモデルでした。
Gemma4で高負荷時に出力が崩壊したケースについては、こちらで詳しくまとめています。
違和感の少ない自然な回答
実際に使ってみると、
- 回答の一貫性がある
- 内容のズレや誤情報が少ない
- 文章として自然
といった点が印象的で、
「安心して使える」感覚がありました。
Qwen3の間違った情報を断言してくる危うさが、Gemma4ではかなり軽減されています。
動作も安定しており実用しやすい
動作面でも特に問題はなく、
- クラッシュなし
- 応答も安定
- 継続して使える
といった点から、日常的な用途でも使いやすい印象でした。
ちょっとした会話も自然
生成しているとつい雑談っぽい話を仕掛けてしまいますが、くだけた口調も自然です。
まだローカルAIはどれも日本語が苦手と聞きましたが、
Gemma4はChatGPTに近い自然さで、プロンプトに忠実に話してくれるな、という印象です。
結論|迷ったらこの選び方でOK
今回の検証結果をまとめると、ローカルAIは「動くかどうか」ではなく、
“安定して使えるか”で選ぶべきだと感じました。
RTX 3080tiがVRAM 12GBなので、AIスタンバイの状態で11GBくらいなら許容範囲かな?と思ってましたが、安定動作にはもうちょい余裕を持たせる必要がありました。
実際の使用感で整理すると、以下の通りです。
- Qwen3 VL 8B:重すぎてこの環境では実用不可
- Qwen3 14B:動作は安定するが、精度に不安あり
- Gemma4 E4B:精度・安定性ともにバランスが良く実用的
そのため、今回のようなRTX3080Ti(VRAM 12GB)クラスの環境では、
Gemma4を選ぶのが最も現実的な選択です。
お金に余裕があるならChatGPT Plus以上のモデルが最高です。


コメント