先做个广告:需要购买Gemini帐号或代充值Gemini会员,请加微信:gptchongzhi
本文目录导读:
推荐使用Gemini中文版,国内可直接访问:https://ai.gpt86.top
- Gemini vs Gemma:别再搞混了
- Gemma 模型生态一览(2025最新)
- 快速上手教程:5分钟运行 Gemma 3
- 微调 Gemma:打造你的专属模型
- 真实应用案例(2025年最新)
- 未来展望:Gemini 会开源吗?
- 附录:资源汇总
编者按:近期许多开发者在社区询问“谷歌 Gemini 开源了没?”作为谷歌 Gemini 中文网的编辑,我首先需要纠正一个常见误区——Gemini 系列模型(Ultra、Pro、Nano)目前并未开源,仅仅通过 API 和网页端提供服务,但谷歌在 2024–2025 年陆续开源了 Gemma 系列模型,这是基于 Gemini 研究成果打造的轻量级开源大模型,性能强悍且完全可商用,本文将带你全面了解 Google 开源大模型生态,并手把手教你部署、微调 Gemma。
Gemini vs Gemma:别再搞混了
| 对比项 | Gemini | Gemma |
|---|---|---|
| 开源状态 | ❌ 闭源,仅 API | ✅ 完全开源(Apache 2.0) |
| 模型大小 | Ultra / Pro / Nano(参数未公开,估计万亿级) | 2B / 7B / 9B / 27B |
| 使用方式 | 通过 API 或 Gemini Web | 本地部署、Hugging Face、Colab、Keras |
| 适用场景 | 高并发、多模态、企业级应用 | 个人开发、边缘设备、学术研究 |
| 最新版本 | Gemini 2.0(2025) | Gemma 3(2025年3月发布) |
如果你想“玩”开源大模型,请直接关注 Gemma,它继承了 Gemini 的核心技术(如注意力机制、训练技巧),但尺寸更小、部署成本更低。
Gemma 模型生态一览(2025最新)
截至 2025 年 5 月,Google 已开源以下 Gemma 系列:
-
Gemma 2(2024.06)
- 2B / 9B / 27B 参数,支持 Kaggle、Hugging Face
- 领先同尺寸 LLaMA 3、Qwen 2 的推理能力
-
RecurrentGemma(2024.11)
基于 Griffin(循环门控线性注意力)架构,长文本推理速度提升 8 倍
-
CodeGemma(2024.11)
专为代码生成优化,支持 Python / JavaScript / SQL,2B 可媲美 7B 通用模型
-
Gemma 3(2025.03)
- 增加 1B / 4B / 12B 版本,引入 多模态支持(文本+图片输入)
- 支持 128K 上下文窗口,RAG 能力大幅增强
-
PaliGemma(2024.05)
专注于视觉语言任务(VQA、图像描述、OCR)
📌 最新动态:2025年4月,Google AI 宣布 Gemma 3 在 Open LLM Leaderboard 上成为 同参数量最佳开源模型,并发布了针对中文优化的中文版 Gemma 3-CN(基于 4B 基座进行增量训练)。
快速上手教程:5分钟运行 Gemma 3
方案 A:使用 Hugging Face(无需本地 GPU,推荐新手)
pip install transformers torch accelerate
from transformers import AutoModelForCausalLM, AutoTokenizer
model_id = "google/gemma-3-4b-it"
tokenizer = AutoTokenizer.from_pretrained(model_id)
model = AutoModelForCausalLM.from_pretrained(model_id, device_map="auto")
input_text = "请用中文写一段关于人工智能发展的短文。"
inputs = tokenizer(input_text, return_tensors="pt").to("cuda")
outputs = model.generate(**inputs, max_new_tokens=200)
print(tokenizer.decode(outputs[0], skip_special_tokens=True))
注意:访问 Gemma 需先通过 Hugging Face 认证(登录后填写 Google 表单,自动批准)。
方案 B:使用 Keras 3(推荐 Python 爱好者)
Google 官方提供了 Keras 3 原生集成的 Gemma,支持 JAX、TensorFlow、PyTorch 后端。
import keras
from keras_nlp.models import GemmaCausalLM
model = GemmaCausalLM.from_preset("gemma3_4b_en")
print(model.generate("What is the future of AI?", max_length=100))
方案 C:本地部署(7B 模型只需 8GB VRAM)
推荐使用 Ollama 一键部署:
# 安装 Ollama curl -fsSL https://ollama.com/install.sh | sh # 拉取 Gemma 3 4B 并运行 ollama pull gemma3:4b ollama run gemma3:4b
Ollama 提供 REST API,可用于 Web 应用集成。
微调 Gemma:打造你的专属模型
场景:用 500 条中文对话数据微调 Gemma 3 4B
步骤 1:准备数据集(JSONL 格式)
{"instruction": "写一首关于春天的诗", "output": "春风拂面柳丝长,\n桃花流水鳜鱼香。\n一夜好雨知时节,\n万物复苏沐春光。"}
步骤 2:使用 LoRA + Unsloth(显存仅需 6GB)
from unsloth import FastLanguageModel
import torch
model, tokenizer = FastLanguageModel.from_pretrained(
model_name="google/gemma-3-4b-it",
max_seq_length=2048,
dtype=torch.bfloat16,
load_in_4bit=True,
)
model = FastLanguageModel.get_peft_model(
model,
r=16,
target_modules=["q_proj", "k_proj", "v_proj", "o_proj"],
lora_alpha=16,
lora_dropout=0,
bias="none",
)
# 训练(省略数据加载与训练循环)
# trainer = SFTTrainer(...)
# trainer.train()
# 保存合并后模型
model.save_pretrained_merged("gemma3-my-chinese-model", tokenizer, save_method="merged_16bit")
步骤 3:推理测试
微调后模型在中文诗歌、对话理解上的表现显著提升,甚至能模仿特定人物风格。
真实应用案例(2025年最新)
- 智能客服:某电商用 Gemma 3 4B 替换 OpenAI API,成本降低 90%,响应质量持平。
- 代码助手:CodeGemma 2B 已集成到 VS Code 插件 Gemma Code Pilot,支持离线补全。
- 文档 OCR:PaliGemma 在医疗发票识别中达到 98% 准确率(基于 1000 张样本微调)。
- 边缘计算:RecurrentGemma 2B 在树莓派 5 上以 20 token/s 速度运行,用于 IoT 决策。
未来展望:Gemini 会开源吗?
Google 高层在 2025 年 4 月的 ML Summit 上表示:“开源 Gemma 系列是为了让社区创新,而 Gemini 作为旗舰模型将保持 API 封闭以确保安全。” 但许多分析认为,若 Meta 的 LLaMA 4 开源且性能超越 Gemini,Google 不排除将 Gemini Nano 开源的可能性。
无论如何,Gemma 3 目前已经是开源大模型中的顶尖选择,尤其适合中文场景(Gemma 3-CN 的 C-Eval 分数达到 78.4,仅次于 Qwen 2.5),立即开始你的 Gemma 之旅吧!
附录:资源汇总
- 官方文档:https://ai.google.dev/Gemma
- Hugging Face 模型库:https://huggingface.co/google
- Ollama 支持:https://ollama.com/library/gemma3
- 中文微调样例:https://github.com/google-research/gemma-cookbook
本文由谷歌 Gemini 中文网编辑撰写,综合了 2025 年 4–5 月 Google AI 官方博客、Hugging Face 社区及多项开源实验数据。


