Claude Code 通过环境变量机制提供了强大的模型切换能力,开发者可以将任何兼容 Anthropic API 协议的模型服务无缝集成到日常编程工作流中。这种设计使得我们能够根据具体任务特点选择最适合的模型,并在多个终端窗口中同时使用不同的 AI 助手协同工作。本文将详细介绍五款主流国产模型的完整接入流程。
环境准备与基础配置
开始配置之前需要确保开发环境满足基本要求。系统需要配备可以访问外部网络的终端环境,macOS、Linux 或 Windows WSL 都可以正常使用。Claude Code CLI 依赖 Node.js 运行时,建议安装 Node.js 18 或更高版本以确保兼容性。此外,你需要熟悉基本的 Shell 命令操作,特别是如何编辑和重载 ~/.zshrc 或 ~/.bashrc 等配置文件。
对于 Windows PowerShell 用户,本文中的 export 语句需要替换为 PowerShell 语法格式 $Env:VAR=“value”。为了避免每次启动终端都需要重新设置环境变量,建议将所有配置写入 Shell 的启动配置文件中。
首先使用 npm 在系统中全局安装 Claude Code 命令行工具:
npm install -g @anthropic-ai/claude-code
安装完成后,在终端执行 claude —help 命令验证工具是否正确安装并可以使用。如果能够看到命令帮助信息,说明 CLI 已经准备就绪。
接入 Moonshot Kimi-K2 模型
Moonshot AI 推出的 Kimi-K2 是一款兼容 Anthropic API 协议的开源代码与代理模型,特别适合需要更长上下文窗口或预算敏感的开发场景。该模型在代码理解和生成任务上表现出色,同时提供了具有竞争力的定价策略。
访问 Moonshot 官方控制台 https://platform.moonshot.cn/console/api-keys 创建新的 API 密钥。为了避免每次使用都需要手动输入密钥,建议将其写入 Shell 配置文件。编辑 ~/.zshrc 或 ~/.bashrc 文件,添加以下配置:
# 设置 Kimi API Key
export KIMI_API_KEY="sk-xxx"
# 定义 kimi 函数,只在调用 claude 时覆盖环境变量
kimi() {
ANTHROPIC_BASE_URL="https://api.moonshot.cn/anthropic/" \
ANTHROPIC_AUTH_TOKEN="$KIMI_API_KEY" \
claude "$@"
}
保存文件后执行 source ~/.zshrc 或 source ~/.bashrc 使配置生效。之后就可以使用 kimi chat、kimi edit 等命令调用 Kimi-K2 模型,获得与原生 Claude Code 完全一致的交互体验。这个函数封装的巧妙之处在于它只在调用 claude 命令时临时覆盖环境变量,不会影响其他终端会话。
接入快手 KAT-Coder 模型
快手推出的 KAT-Coder 构建了”顶尖自研模型 + 智能开发工具 + MaaS 平台”的完整产品矩阵,其中轻量版 KAT-Coder-Air 向所有用户免费开放。该服务目前提供限时免费试用,包含 2000 万 token 的使用额度,适合开发者进行长期测试和评估。
首先访问 KAT-Coder 官网 https://streamlake.ai 了解产品的核心能力。然后前往 https://streamlake.ai/product/kat-coder#packages 页面的 Resource Packages 区域领取免费试用包。完成试用包领取后,打开管理控制台 https://console.streamlake.ai/console/home 进入模型服务管理界面。
在控制台中选择新建在线推理端点,系统会生成一个唯一的端点标识符,格式类似 ep-xxx。这个端点 ID 是后续配置中的关键参数,请妥善记录。接下来在同一控制台中创建新的 API 密钥并保存。如果在操作过程中遇到问题,可以参考官方文档中心 https://streamlake.ai/document/DOC/mg6k6nlp8j6qxicx4c9 提供的详细指南。
将以下函数追加到 Shell 配置文件中:
ks() {
ANTHROPIC_BASE_URL="https://vanchin.streamlake.ai/api/gateway/v1/endpoints/ep-xxx/claude-code-proxy" \
ANTHROPIC_AUTH_TOKEN="xxx" \
ANTHROPIC_SMALL_FAST_MODEL="KAT-Coder" \
claude "$@"
}
需要注意的是,配置中的 ep-xxx 应替换为你在控制台创建的实际端点 ID,xxx 应替换为生成的 API 密钥。配置完成后重新加载配置文件,在终端执行 ks 命令即可启动 KAT-Coder 支持的 Claude Code 会话。
接入阿里云 Qwen3 Coder 模型
Qwen3-Coder-480B-A35B-Instruct 是阿里云百炼平台推出的旗舰级代码模型,拥有强大的代理能力和业界领先的上下文处理能力,最长支持 1M token 的上下文窗口。这使得它在处理大型代码库分析、复杂项目重构等场景中具有显著优势。
访问阿里云百炼控制台 https://bailian.console.aliyun.com/?tab=model#/authority 开通 Qwen3 模型相关权限。开通成功后在控制台生成 API 密钥,该密钥将用于身份验证和请求鉴权。
在 Shell 配置文件中添加以下配置:
export QWEN3_API_KEY="sk-xxx"
qwen3() {
ANTHROPIC_BASE_URL="https://dashscope.aliyuncs.com/api/v2/apps/claude-code-proxy" \
ANTHROPIC_AUTH_TOKEN="$QWEN3_API_KEY" \
claude "$@"
}
这个配置利用了阿里云 DashScope 平台提供的 Claude Code 代理服务。当你执行 qwen3 chat 等命令时,CLI 会自动将请求转发至 DashScope 后端,实现与原生 Claude Code 相同的操作流程和用户体验。
接入 DeepSeek V3.1 模型
DeepSeek V3.1 为 Anthropic API 生态提供了完整的兼容实现,开发者可以在保持 Claude Code 熟悉操作体验的同时,充分利用 DeepSeek 模型在推理能力和代码生成方面的优势。该模型在复杂逻辑推理和算法实现任务上表现出色。
参考 DeepSeek 官方 Anthropic API 文档 https://api-docs.deepseek.com/guides/anthropic_api 了解接入规范。在 DeepSeek 控制台创建 API 密钥后,建议立即将其写入 Shell 配置文件并妥善保管,避免在代码仓库或公共环境中泄露。
在配置文件中添加以下内容:
export DS_API_KEY="sk-xxx"
export ANTHROPIC_MODEL="deepseek-chat"
export ANTHROPIC_SMALL_FAST_MODEL="deepseek-chat"
ds() {
ANTHROPIC_BASE_URL="https://api.deepseek.com/anthropic" \
ANTHROPIC_AUTH_TOKEN="$DS_API_KEY" \
claude "$@"
}
这个配置需要特别注意的是,export ANTHROPIC_MODEL 和 export ANTHROPIC_SMALL_FAST_MODEL 会为全局环境设置默认模型名称,而 ds 函数在调用时仅覆盖 API 基础 URL 和鉴权令牌。这种设计确保了模型选择的正确性和请求路由的准确性。
接入智谱 GLM-4.6 模型
智谱 AI 在 2025 年 9 月 30 日发布的旗舰模型 GLM-4.6 专门面向智能体应用场景进行了深度优化,在代码生成、复杂推理与多工具编排能力方面实现了全面升级。相较于 Claude 官方 API,GLM-4.6 在定价策略上具有显著的成本优势,特别适合需要大量调用的团队和个人开发者。
参考智谱 AI 最新官方指南 https://docs.z.ai/guides/llm/glm-4.6 了解模型特性和使用规范。按照文档指引在控制台获取 API 密钥,并将其安全地保存到环境变量配置中。
在 Shell 配置文件中添加以下函数:
export ZHIPU_API_KEY="sk-xxx"
zhipu() {
ANTHROPIC_BASE_URL="https://dashscope.aliyuncs.com/api/v2/apps/claude-code-proxy" \
ANTHROPIC_AUTH_TOKEN="$ZHIPU_API_KEY" \
claude "$@"
}
配置完成后可以使用 zhipu chat —session agent-dev 这样的命令启动智谱模型会话。通过 —session 参数可以为不同项目或任务创建独立的对话上下文,便于长期跟踪和管理开发历史。
配置问题排查与最佳实践
在实际使用过程中可能会遇到各种配置和调用问题,掌握正确的排查方法可以显著提高问题解决效率。
当修改配置文件后环境变量没有生效时,最常见的原因是忘记重新加载配置。在当前终端执行 source ~/.zshrc 或 source ~/.bashrc 命令即可让新配置立即生效。如果不想手动执行 source 命令,也可以简单地关闭当前终端窗口并重新打开,新的终端会话会自动加载最新配置。
API 请求失败时需要仔细观察终端返回的 HTTP 状态码。401 错误通常表示 API 密钥无效或权限不足,需要登录对应平台的控制台检查密钥是否正确配置。429 错误表示请求频率超过了限流阈值,这种情况下应该查看账户的配额使用情况,考虑升级套餐或等待配额重置。如果遇到 5xx 错误,通常是服务端问题,可以稍后重试或联系平台技术支持。
在多模型并行使用场景中,建议为每个模型命令开启独立的终端标签页或窗口。这样做的好处是可以清晰地查看每个模型的对话历史和上下文状态,避免不同会话之间的干扰和混淆。同时,多窗口布局也能让你更高效地在不同模型之间切换,根据任务特点选择最合适的助手。
密钥安全管理至关重要。API 密钥应该只保存在本机的 Shell 配置文件中,绝不能将包含明文密钥的文件提交到 Git 仓库或其他版本控制系统。在进行屏幕共享、录制技术教程或参加线上会议时,务必注意遮挡或隐藏终端中的密钥信息。如果不小心泄露了密钥,应该立即在对应平台的控制台中撤销并重新生成。
按照本文介绍的方法完成配置后,你将拥有一个功能强大的多模型 AI 编程环境。可以在不同终端窗口中同时运行 Claude Code、Kimi-K2、KAT-Coder、Qwen3 Coder、DeepSeek V3.1 与 Zhipu GLM-4.6 等多个模型,根据具体开发任务的特点灵活选择最合适的助手。例如在需要超长上下文的大型项目分析时使用 Qwen3 Coder,在日常代码编写和调试时使用 DeepSeek V3.1,在复杂算法设计时借助 Zhipu GLM-4.6 的推理能力。这种多模型协同工作的模式能够显著提升开发效率和代码质量。