2025-07-12 10:16:17

使用 LiteLLM 配合豆包1.6 来驱动 Claude Code:完整配置指南


claudeCode 搞账号太难了。而且挺贵。
目前有白嫖的方式: https://anyrouter.top/register?aff=wWte
注册完,点击右上角的使用指南就可以了。
关键是配置环境变量:ANTHROPIC_AUTH_TOKEN 和 ANTHROPIC_BASE_URL

另外最近kimi开源的k2也可以这么搞。ANTHROPIC_BASE_URL填https://api.moonshot.cn/anthropic,ANTHROPIC_AUTH_TOKEN 填kimi的key就行。

豆包是openapi接口模型,麻烦点,要借助LiteLLM

概述

豆包1.6(Doubao-1.6)是字节跳动最新推出的通用大语言模型,具备强大的代码理解和生成能力。通过 LiteLLM 这个统一的 LLM API 框架,我们可以将豆包1.6 集成到 Claude Code 中,获得更优质的编程辅助体验。

为什么选择豆包1.6 + Claude Code

  • 成本优势:豆包1.6 的定价相比 Claude 3.5 Sonnet 更具性价比
  • 中文优化:对中文代码注释和技术文档的理解更准确
  • 代码能力:在代码生成、重构、解释方面表现出色
  • 稳定服务:依托火山引擎,提供企业级稳定性保障

前置条件

  1. 已安装 Claude Code CLI 工具
  2. 拥有火山引擎账号并完成实名认证
  3. 开通了方舟大模型服务

步骤一:获取豆包 API 凭证

1.1 创建 API Key

  1. 登录 https://console.volcengine.com/
  2. 进入「方舟大模型服务」-「API Key 管理」
  3. 点击「创建 API Key」,保存好生成的密钥

1.2 确认模型可用性

在控制台确认已开通 doubao-1-6 系列模型:

  • doubao-1-6-chat-32k:通用对话模型
  • doubao-1-6-pro-32k:高性能版本
  • doubao-1-6-lite-32k:轻量快速版本

步骤二:配置 LiteLLM 代理

2.1 安装 LiteLLM

pip install litellm[proxy]

2.2 创建配置文件

创建 litellm_config.yaml:

model_list:
  - model_name: claude-3-5-sonnet
    litellm_params:
      model: openai/doubao-seed-1-6-250615
      api_base: https://ark.cn-beijing.volces.com/api/v3
      api_key: "你的API密钥"
      max_tokens: 8192
      temperature: 0.1

  - model_name: claude-3-5-sonnet-thinking
    litellm_params:
      model: openai/doubao-seed-1-6-thinking-250615
      api_base: https://ark.cn-beijing.volces.com/api/v3
      api_key: "你的API密钥"
      max_tokens: 8192
      temperature: 0.7

general_settings:
  master_key: sk-1234
  proxy_budget_rescheduler_max_async_calls: 100

2.3 启动 LiteLLM 代理

litellm --config litellm_config.yaml --port 4000

步骤三:配置 Claude Code

3.1 设置环境变量

创建 .env 文件或在 shell 中设置:

Claude Code 配置

export ANTHROPIC_API_KEY=“sk-1234” # LiteLLM 的 master_key
export ANTHROPIC_BASE_URL=“http://localhost:4000”
export ANTHROPIC_MODEL=“claude-3-5-sonnet”

3.2 验证配置

运行以下命令测试连接:

claude --version
claude --help

3.3 高级配置(可选)

创建 claude_settings.json:

{
“api_key”: “sk-1234”,
“base_url”: “http://localhost:4000”,
“model”: “claude-3-5-sonnet”,
“max_tokens”: 8192,
“temperature”: 0.1,
“timeout”: 60,
“retry_attempts”: 3
}

步骤四:使用示例

4.1 基础使用

让 Claude Code 解释代码

claude explain main.py

生成单元测试

claude generate tests for utils.py

重构代码

claude refactor the authentication module

4.2 中文指令支持

豆包1.6 对中文理解优秀,可以直接使用中文:

中文指令

claude “帮我优化这段代码的性能”
claude “解释一下这个函数的作用”
claude “添加详细的代码注释”

4.3 批量处理

批量处理多个文件

claude review src/**/*.py --format=json

步骤五:性能优化

5.1 缓存配置

在 litellm_config.yaml 中添加缓存:

router_settings:
redis_host: localhost
redis_port: 6379
redis_password: “”

5.2 速率限制

router_settings:
rpm: 1000 # 每分钟请求数
tpm: 100000 # 每分钟token数

5.3 负载均衡

配置多个豆包实例:

model_list:
- model_name: claude-3-5-sonnet
litellm_params:
model: openai/doubao-1-6-pro-32k
api_base: https://ark.cn-beijing.volces.com/api/v3
api_key: “key1”
- model_name: claude-3-5-sonnet
litellm_params:
model: openai/doubao-1-6-pro-32k
api_base: https://ark.cn-beijing.volces.com/api/v3
api_key: “key2”

故障排除

常见问题

问题 解决方案
401 Unauthorized 检查 API Key 是否正确
429 Rate Limit 降低调用频率或升级套餐
模型不可用 确认已开通对应模型权限
连接超时 检查 LiteLLM 代理是否正常运行

调试命令

测试 LiteLLM 代理

curl -X POST http://localhost:4000/v1/chat/completions
-H “Authorization: Bearer sk-1234”
-H “Content-Type: application/json”
-d ‘{
“model”: “claude-3-5-sonnet”,
“messages”: [{“role”: “user”, “content”: “Hello”}]
}’

查看 Claude Code 日志

claude --debug

成本分析

价格对比(基于 2025年7月)

模型 输入价格 输出价格
Claude 3.5 Sonnet $3.00/1M tokens $15.00/1M tokens
豆包1.6 Pro ¥0.8/1k tokens ¥2/1k tokens
豆包1.6 Lite ¥0.3/1k tokens ¥0.6/1k tokens

节省成本约 60-80%

最佳实践

  1. 选择合适的模型:
    - 简单任务使用 Lite 版本
    - 复杂分析使用 Pro 版本
  2. 批量处理:减少 API 调用次数
  3. 缓存常用结果:使用 Redis 缓存常见查询
  4. 监控使用情况:设置预算告警
  5. 错误重试:配置合理的重试策略

总结

通过 LiteLLM 将豆包1.6 集成到 Claude Code 中,不仅大幅降低了使用成本,还提升了中文编程体验。整个配置过程简单明了,企业级用户可以根据需求进行横向扩展和性能优化。

现在你可以享受高性价比的 AI 编程助手了!

本文链接:http://blog.go2live.cn/post/litellm_doubao_cc.html

-- EOF --