Skip to content
On this page

Gemma 4 - Google 开源模型本地部署指南

来源:https://gemma4guide.com/zh/guides/gemma4-local-deployment 更新时间:2026-04-05

概述

Gemma 4 是 Google 的开源轻量级模型系列,可通过 Ollama 本地运行。

版本选择

机器配置推荐版本说明
CPU / 显存 ≤ 6GBgemma4:e2b 或 gemma4:e4b最省资源,适合先验证工作流
显存 8-12GB / Mac 16GB+gemma4:e4b性价比最优平衡点
显存 ≥ 12GBgemma4:26b质量更强,资源占用更高
显存 ≥ 16GBgemma4:31b最高质量

快速部署步骤

bash
# 1. 安装 Ollama
curl -fsSL https://ollama.com/install.sh | sh
# 或 Mac: brew install --cask ollama

# 2. 拉取模型
ollama pull gemma4          # 默认版本
ollama pull gemma4:e4b      # 指定版本

# 3. 验证
ollama list                 # 确认模型已下载
ollama ps                   # 查看运行状态

# 4. 运行
ollama run gemma4 "roses are red"

API 调用

bash
curl http://localhost:11434/api/generate \
  -d '{"model":"gemma4","prompt":"Summarize why local AI matters.","stream":false}'

各平台注意事项

Mac

  • Homebrew 或官方桌面版安装最简单
  • 统一内存被占满会导致性能下降,建议关闭其他占用内存的 app

Windows

  • 官方安装程序最稳
  • 安装后需重启终端让 PATH 生效
  • 防火墙可能拦 11434 端口,需在安全中心允许

Linux

  • shell 安装脚本最快:curl -fsSL https://ollama.com/install.sh | sh

常见问题

问题解决方案
下载慢/中断断点续传,再执行一次 pull 即可
推理慢硬件和版本不匹配,降级模型
Mac 很烫统一内存占满,换小版本或关后台 app
Windows 找不到命令重启终端或电脑,或手动配置 PATH
API 报错 CLI 正常检查超时、请求大小、JSON 格式

相关资源