Claude Code 切换模型完整教程 - 国产、本地、自定义全方案
Claude Code 怎么切换模型?本文详解切换 Opus / Sonnet / Haiku、接入 GLM / Gemini / DeepSeek / Ollama 本地模型、自定义 base URL 配置。
很多人装好 Claude Code 之后,第一个想问的就是 Claude Code 怎么切换模型。原因很多:有人想从默认的 Sonnet 切到 Opus 跑更难的任务,有人想 Claude Code 换模型 接入国产大模型省钱,还有人需要在内网用本地模型。ClaudeCode 模型选择有哪些、ClaudeCode 接入本地模型 要不要走 Ollama、Claude Code 接入国内模型必须要代理吗——这些问题本文一次说清。
本文覆盖三种主流场景:在 Anthropic 官方模型之间切换、接入 DeepSeek / GLM / Gemini 等第三方 API、以及通过 Ollama 接入本地模型实现私有化。所有命令、配置示例都按真实可用的方式给出,截至本文撰写时有效,具体语法以官方文档为准。
Claude Code 用的什么模型 —— 默认配置
Claude Code 是 Anthropic 自己出的命令行编程助手,所以默认调用 Anthropic 的 Claude 系列。开箱即用的三个档位是:
| 档位 | 模型家族 | 适用场景 |
|---|---|---|
| Opus | Claude Opus 系列 | 复杂推理、跨文件重构、架构决策 |
| Sonnet | Claude Sonnet 系列 | 日常编码、默认首选 |
| Haiku | Claude Haiku 系列 | 简单补全、速度敏感任务 |
具体到当前版本号(Opus 4.6 / 4.7、Sonnet 4.6 等),以官方公告为准。Claude Code 启动时默认走 Sonnet 档位,因为它在能力和成本上最均衡。
Claude Code 切换模式有哪些场景
Claude Code 切换模式 主要分三类,理解清楚再配置不会乱:
- 在 Anthropic 官方模型之间切换:Opus ↔ Sonnet ↔ Haiku,账号、API key 都不变。
- 切换到第三方 API:接入 DeepSeek、GLM、Gemini、Qwen 等,需要兼容层。
- 切换到本地模型:接入 Ollama、vLLM、LM Studio 等本地推理服务。
后两种本质相同:都是把 ANTHROPIC_BASE_URL 指向另一个兼容 Anthropic 协议的端点。理解这个原理,ClaudeCode 自定义模型步骤详解 就只剩配置细节了。
切换 Anthropic 官方模型:三种方法
方法一:交互式 /model 命令
进入 Claude Code 会话后,直接输入:
/model
会弹出可选模型列表,选一个回车即可。这是最快的临时切换方式,Claude Code 切换模型 在会话中随时可用。
方法二:启动参数 --model
启动时直接指定:
claude --model claude-opus-4-7
claude --model claude-sonnet-4-6
claude --model claude-haiku-4-5
具体模型 ID 字符串以官方文档为准,截至本文撰写时大体遵循 claude-<family>-<version> 格式。
方法三:settings.json 持久化
编辑 ~/.claude/settings.json(Windows 为 %USERPROFILE%\.claude\settings.json):
{
"model": "claude-sonnet-4-6"
}
这样每次启动都默认用这个模型,省得每次手动切。
Claude Code 接入第三方 API 的原理
ClaudeCode 能用其他模型吗、ClaudeCode 能接入其他模型吗——答案是能,但要理解机制。
Claude Code 客户端发请求的协议是 Anthropic Messages API。只要某个服务(自家或第三方)暴露同样格式的 HTTP 接口,把 ANTHROPIC_BASE_URL 指过去就能用。整个流程:
Claude Code 客户端
│ (Anthropic Messages API 格式)
▼
ANTHROPIC_BASE_URL(自定义端点)
│
▼
真实模型(DeepSeek / GLM / Ollama 等)
中间通常会有一层兼容转换。常见方案:
- 官方原生兼容:少数厂商直接提供 Anthropic 兼容端点。
- 协议转换网关:用 LiteLLM 这类网关把 OpenAI 协议转 Anthropic 协议。
- 代理服务:第三方中转服务(不少 “Claude API 中转” 站点提供)。
Claude Code 接入国内模型完整步骤
通用三步骤
无论接 DeepSeek、GLM、Qwen,ClaudeCode 接入国内大模型 都是这三步:
1. 拿到国内厂商的 API key
去对应平台注册账号、实名、创建 key:
- DeepSeek:platform.deepseek.com
- 智谱 GLM:bigmodel.cn / open.bigmodel.cn
- 通义千问:dashscope.aliyun.com
2. 准备兼容层(如需要)
如果该厂商已提供 Anthropic 兼容端点,跳过这步。如果只提供 OpenAI 兼容端点,本地跑一个 LiteLLM:
pip install litellm
litellm --model deepseek/deepseek-chat --port 4000
3. 配置环境变量或 settings.json
# macOS / Linux
export ANTHROPIC_BASE_URL=https://your-gateway.example.com
export ANTHROPIC_API_KEY=sk-your-key
# Windows PowerShell
$env:ANTHROPIC_BASE_URL = "https://your-gateway.example.com"
$env:ANTHROPIC_API_KEY = "sk-your-key"
或者写进 settings.json:
{
"env": {
"ANTHROPIC_BASE_URL": "https://your-gateway.example.com",
"ANTHROPIC_API_KEY": "sk-your-key"
}
}
启动 claude 验证:随便问一个问题,看返回内容风格判断是哪家模型,或者让它回答”你是谁、哪家公司训练的”做反向校验。
Claude Code 接入国内模型必须要代理吗
不需要墙外代理。接入国产模型本质上是直连国内厂商的 API 服务器,全程国内网络,反而比连 Anthropic 官方更快、更稳。代理只在你接 OpenAI、Anthropic、Gemini 等海外 API 时才需要。
接入 GLM 4.6 实测效果
ClaudeCode 接入 GLM4.6 真实效果 是很多国内用户关心的点。GLM 4.6 是智谱清言的新一代模型,编程能力相比早期版本进步明显。
实测对照(仅作主观参考,不代表官方基准):
| 维度 | Claude Opus | GLM 4.6 | 备注 |
|---|---|---|---|
| 单文件代码生成 | 优秀 | 良好 | GLM 偶尔会偷懒不写完 |
| 跨文件重构 | 优秀 | 中等 | Opus 上下文记得更牢 |
| 中文注释/沟通 | 良好 | 优秀 | GLM 中文表达更自然 |
| 工具调用稳定性 | 优秀 | 良好 | GLM 偶有格式偏差 |
| 价格 | 高 | 显著更低 | 适合预算敏感 |
结论:日常 90% 任务 GLM 4.6 够用,复杂架构问题切回 Opus。
接入 Gemini / Gemini Pro
ClaudeCode 接入 Gemini、ClaudeCode 接入 GeminiPro 路径是:
Claude Code → LiteLLM Gateway → Google Gemini API
LiteLLM 配置示例 litellm_config.yaml:
model_list:
- model_name: claude-3-5-sonnet-20241022
litellm_params:
model: gemini/gemini-2.0-flash-exp
api_key: os.environ/GEMINI_API_KEY
启动:
litellm --config litellm_config.yaml --port 4000
然后把 ANTHROPIC_BASE_URL 指向 http://localhost:4000。注意 Gemini API 国内不能直连,要么用海外服务器跑 LiteLLM,要么用合规中转。
接入 DeepSeek
DeepSeek 在国内编程模型里口碑很好,ClaudeCode 接入 DeepSeek 配置:
# litellm_config.yaml
model_list:
- model_name: claude-3-5-sonnet-20241022
litellm_params:
model: deepseek/deepseek-chat
api_key: os.environ/DEEPSEEK_API_KEY
api_base: https://api.deepseek.com
DeepSeek-V3 通用对话强,DeepSeek-Coder 系列在代码任务上更专一。预算紧、想要”够用即可”的选 DeepSeek 性价比极高。
Claude Code 接入 Ollama 本地模型
ClaudeCode 接入 Ollama、ClaudeCode 接入 Ollama 本地模型 是真正实现 Claude Code 本地模型 的核心方案。
完整流程
1. 安装 Ollama 并拉模型
# 安装 Ollama(macOS / Linux)
curl -fsSL https://ollama.com/install.sh | sh
# Windows 去 ollama.com 下安装包
# 拉一个工具调用支持比较好的模型
ollama pull qwen2.5-coder:14b
# 或
ollama pull llama3.1:8b
2. 跑兼容网关
Ollama 自带 OpenAI 兼容接口(/v1 路径),但 Claude Code 需要 Anthropic 协议,所以中间还要 LiteLLM:
# litellm_config.yaml
model_list:
- model_name: claude-3-5-sonnet-20241022
litellm_params:
model: ollama/qwen2.5-coder:14b
api_base: http://localhost:11434
litellm --config litellm_config.yaml --port 4000
3. 配 Claude Code
{
"env": {
"ANTHROPIC_BASE_URL": "http://localhost:4000",
"ANTHROPIC_API_KEY": "sk-fake-local-key"
}
}
API key 随便填一个字符串就行,本地服务不校验。
ClaudeCode 接入本地模型无法创建文件的常见原因
很多人接好 Ollama 后发现 ClaudeCode 接入本地模型无法创建文件、不会执行 bash 命令、写代码不落盘。原因几乎都集中在以下几点:
| 症状 | 原因 | 解决 |
|---|---|---|
| 完全不调用工具 | 模型不支持 function calling | 换 Qwen 2.5 Coder / Llama 3.1 等支持工具的版本 |
| 调用工具格式错乱 | 小模型(7B 以下)能力不够 | 升到 14B / 32B 或更大 |
| 调一半卡住 | 上下文窗口爆了 | 减小输入或换大窗口模型 |
| Ollama 版本旧 | function calling 支持不完整 | 升级 Ollama 到最新 |
| LiteLLM 转换 bug | 中间层格式问题 | 升级 LiteLLM,看日志排查 |
重点:小于 7B 的模型基本指望不上做完整编程任务,至少上 13B / 14B 才能勉强用。
自定义 base URL 完整步骤详解
ClaudeCode 自定义模型步骤详解 总结一份通用模板:
# 1. 设置环境变量
export ANTHROPIC_BASE_URL="https://your-endpoint.example.com"
export ANTHROPIC_API_KEY="your-key"
# 2. 验证端点可达
curl -X POST $ANTHROPIC_BASE_URL/v1/messages \
-H "x-api-key: $ANTHROPIC_API_KEY" \
-H "anthropic-version: 2023-06-01" \
-H "content-type: application/json" \
-d '{"model":"claude-3-5-sonnet-20241022","max_tokens":100,"messages":[{"role":"user","content":"hi"}]}'
# 3. 启动 Claude Code
claude
如果第二步 curl 都不通,那肯定是端点或 key 配错,不用怀疑 Claude Code 本身。
各模型编程能力对照
ClaudeCode 哪个模型最强、ClaudeCode 哪个模型编程 最好用——主观对照表,仅供参考:
| 模型 | 编程能力 | 工具调用 | 中文 | 价格 | 适合谁 |
|---|---|---|---|---|---|
| Claude Opus | 顶级 | 顶级 | 优秀 | 贵 | 复杂任务、不差钱 |
| Claude Sonnet | 优秀 | 优秀 | 优秀 | 中 | 日常默认 |
| Claude Haiku | 良好 | 良好 | 优秀 | 便宜 | 简单/批量任务 |
| GPT-4 系列 | 优秀 | 优秀 | 优秀 | 中-贵 | 替代方案 |
| Gemini 2.x | 优秀 | 良好 | 良好 | 中 | 长上下文 |
| DeepSeek-V3 | 优秀 | 良好 | 优秀 | 便宜 | 性价比首选 |
| GLM 4.6 | 良好 | 良好 | 优秀 | 便宜 | 国内合规 |
| Qwen 2.5 Coder | 良好 | 中等 | 优秀 | 本地免费 | 本地化 |
| Llama 3.1 | 中等 | 中等 | 一般 | 本地免费 | 英文场景 |
哪个模型适合什么场景
- 架构设计、跨文件重构、复杂调试:Claude Opus,没有之一。
- 日常 80% 编码任务:Claude Sonnet 或 DeepSeek-V3。
- 批量、速度敏感、补全类:Claude Haiku 或 GLM Flash。
- 长文档、超大代码库:选上下文窗口最大的版本(Gemini、Claude Opus 都很强)。
- 完全离线 / 内网:Qwen 2.5 Coder 14B+ 本地跑。
- 预算极度敏感:DeepSeek、GLM,国内直连不要代理。
FAQ
ClaudeCode 免费模型 有哪些选择?
严格意义上”免费”的方案:
- 本地 Ollama 跑 Qwen / Llama(硬件成本)
- 部分国产厂商的免费试用 quota
- Gemini 有限免费 tier(需海外网络)
Anthropic 官方没有完全免费的 API tier,只有部分免费消息额度(具体看官方政策)。
ClaudeCode 接入 Cursor 怎么搞?
Cursor 和 Claude Code 是两个独立产品,“接入”通常指:
- 在 Cursor 编辑器里使用 Claude 模型(Cursor 设置里直接选)
- 在 Cursor 的内置终端里跑 Claude Code(terminal 里启动
claude即可)
后者其实就是把 Claude Code 当成普通 CLI 用,跟 Cursor 本身没接管关系。
Claude Code 切换模型会丢上下文吗?
/model 命令在同一会话里切换,上下文保留。重新启动 claude 进程会开新会话。
能用 ChatGPT (OpenAI) 模型吗?
可以,路径同 Gemini:LiteLLM 转协议即可。但要注意 OpenAI 国内不能直连,要走海外服务器。
Claude Code 模型有多大?
Claude Code 是客户端工具,本身只有几十 MB。真正的模型在云端运行(接 Anthropic 时)或本地 Ollama(接本地时)。Claude 系列模型参数规模 Anthropic 没完全公开,业界估计 Opus 在数千亿参数级别,以官方为准。
小结
Claude Code 切换模型 的关键就一句话:改 ANTHROPIC_BASE_URL + 对应 API key。在 Anthropic 内部切档位用 /model,跨平台切走兼容网关(LiteLLM 是万金油)。
国内用户最务实的路径:日常用 Sonnet(或国产 GLM / DeepSeek 省钱),难题切 Opus,敏感数据切本地 Ollama + Qwen 2.5 Coder 14B。三个场景配三套 settings.json profile,需要时切换即可。