暂无图片
暂无图片
暂无图片
暂无图片
暂无图片

别再为 Claude 账号发愁了,这个平台让你的 Claude Code 免费起飞

alitrack 2025-09-12
1390

 

 

前两天,我在文章 《想用Claude Code,但没有Claude账号怎么办?》 中介绍了几家支持 Claude Code 的大模型服务商。文章发布后,我才发现自己遗漏了一位“重量级选手”——魔搭(ModelScope)

它不仅完美兼容 Claude Code,还提供了海量的模型选择,并且每日慷慨赠送高达 2000 次的免费 API 调用,堪称业界良心!

用量额度

琳琅满目:魔搭支持的丰富模型库

魔搭平台的模型库阵容极其强大,涵盖了业界众多主流和前沿的模型。为了让您直观感受其丰富程度,这里仅展示部分列表:

点击展开/折叠完整的模型列表LLM-Research/c4ai-command-r-plus-08-2024 mistralai/Mistral-Small-Instruct-2409 mistralai/Ministral-8B-Instruct-2410 mistralai/Mistral-Large-Instruct-2407 Qwen/Qwen2.5-Coder-32B-Instruct Qwen/Qwen2.5-Coder-14B-Instruct Qwen/Qwen2.5-Coder-7B-Instruct Qwen/Qwen2.5-72B-Instruct Qwen/Qwen2.5-32B-Instruct Qwen/Qwen2.5-14B-Instruct Qwen/Qwen2.5-7B-Instruct Qwen/QwQ-32B-Preview opencompass/CompassJudger-1-32B-Instruct Qwen/QVQ-72B-Preview Qwen/Qwen2-VL-7B-Instruct Qwen/Qwen2.5-14B-Instruct-1M Qwen/Qwen2.5-7B-Instruct-1M Qwen/Qwen2.5-VL-3B-Instruct Qwen/Qwen2.5-VL-7B-Instruct Qwen/Qwen2.5-VL-72B-Instruct deepseek-ai/DeepSeek-R1-Distill-Llama-70B deepseek-ai/DeepSeek-R1-Distill-Llama-8B deepseek-ai/DeepSeek-R1-Distill-Qwen-32B deepseek-ai/DeepSeek-R1-Distill-Qwen-14B deepseek-ai/DeepSeek-R1-Distill-Qwen-7B deepseek-ai/DeepSeek-R1-Distill-Qwen-1.5B deepseek-ai/DeepSeek-V3 Qwen/QwQ-32B XGenerationLab/XiYanSQL-QwenCoder-32B-2412 Qwen/Qwen2.5-VL-32B-Instruct LLM-Research/Llama-4-Scout-17B-16E-Instruct LLM-Research/Llama-4-Maverick-17B-128E-Instruct Qwen/Qwen3-0.6B Qwen/Qwen3-1.7B Qwen/Qwen3-4B Qwen/Qwen3-8B Qwen/Qwen3-14B Qwen/Qwen3-30B-A3B Qwen/Qwen3-32B Qwen/Qwen3-235B-A22B XGenerationLab/XiYanSQL-QwenCoder-32B-2504 deepseek-ai/DeepSeek-R1-0528 Menlo/Jan-nano PaddlePaddle/ERNIE-4.5-21B-A3B-PT PaddlePaddle/ERNIE-4.5-0.3B-PT PaddlePaddle/ERNIE-4.5-VL-28B-A3B-PT PaddlePaddle/ERNIE-4.5-300B-A47B-PT MiniMax/MiniMax-M1-80k Qwen/Qwen3-235B-A22B-Instruct-2507 Qwen/Qwen3-Coder-480B-A35B-Instruct Qwen/Qwen3-235B-A22B-Thinking-2507 ZhipuAI/GLM-4.5 Qwen/Qwen3-30B-A3B-Thinking-2507 moonshotai/Kimi-K2-Instruct-0905 Qwen/Qwen3-Coder-30B-A3B-Instruct stepfun-ai/step3 wuhoutest5015/resume_ner deepseek-ai/DeepSeek-V3.1 Qwen/Qwen-Image-Edit MusePublic/Qwen-Image-Edit

看到这个长长的列表了吗?对于开发者而言,我们更关心其中哪些模型擅长代码生成。经过筛选和试用,我特别推荐以下几款:

  • • Qwen/Qwen3-Coder-480B-A35B-Instruct
  • • deepseek-ai/DeepSeek-V3.1
  • • ZhipuAI/GLM-4.5
  • • moonshotai/Kimi-K2-Instruct-0905

看到这里,你是否已经跃跃欲试?别急,我们这就开始动手配置。

快速上手:三步配置你的专属 Claude Code 环境

第一步:注册并准备账号

  1. 1. 注册魔搭账号:访问官网 https://modelscope.cn
     完成注册。
  2. 2. 绑定阿里云账号:在账户设置页面进行绑定。这一步是开通服务所必需的,您可以使用支付宝、淘宝或钉钉账号快速授权。

    绑定阿里云账号
  3. 3. 生成API密钥(Token):前往 Access Token 页面 创建一个新的 Token。虽然 default
     Token 也能用,但它有有效期,建议创建一个长期有效的自定义 Token。

第二步:配置环境变量

接下来,我们需要将魔搭的 API 信息配置为环境变量,供 Claude Code 读取。

一个关键点:魔搭使用的是 ANTHROPIC_API_KEY
 这个变量名,而不是常见的 ANTHROPIC_AUTH_TOKEN
,请务必注意区分。

对于 macOS 或 Linux 用户,请在终端执行以下命令:

# 清空旧的 token(可选,避免冲突)
unset
 ANTHROPIC_AUTH_TOKEN

# 设置你的魔搭 API Key

export
 ANTHROPIC_API_KEY="在此替换为你自己的API Key"

# 设置魔搭的 API-Endpoint

export
 ANTHROPIC_BASE_URL="https://api-inference.modelscope.cn"

# 设置默认的主力模型和备用模型

export
 ANTHROPIC_MODEL="Qwen/Qwen3-Coder-480B-A35B-Instruct"
export
 ANTHROPIC_SMALL_FAST_MODEL="deepseek-ai/DeepSeek-V3.1"

对于 Windows 用户,请在命令提示符(CMD)中执行:

set ANTHROPIC_AUTH_TOKEN=
set
 ANTHROPIC_API_KEY="在此替换为你自己的API Key"
set
 ANTHROPIC_BASE_URL="https://api-inference.modelscope.cn"
set
 ANTHROPIC_MODEL="Qwen/Qwen3-Coder-480B-A35B-Instruct"
set
 ANTHROPIC_SMALL_FAST_MODEL="deepseek-ai/DeepSeek-V3.1"

配置完成后,配合我之前分享的 Claude Code Windows 开箱即用版本,即可立即享受编码的乐趣。

使用须知:免费额度与限制

魔搭的免费额度非常厚道,但也有一些规则需要了解:

  • • 总调用量限制:每天总共提供 2000 次 API 调用。
  • • 单模型限制:每个独立的模型每天有 500 次的调用上限。
  • • 注意:如果某个模型达到了 500 次的上限,即使总调用量未满 2000 次,该模型当天也无法再使用,需要切换其他模型或等待次日刷新。

结语与个人推荐

至于哪个模型效果最好,这并没有标准答案。我个人目前就在使用 ANTHROPIC_MODEL
 设置为 Qwen/Qwen3-Coder-480B-A35B-InstructANTHROPIC_SMALL_FAST_MODEL
 设置为 deepseek-ai/DeepSeek-V3.1 的组合,在日常开发中体验相当出色。

当然,模型的选择因人而异,更重要的是掌握与 AI 高效协作的技巧。希望这篇补充能够帮助到你!

P.S. 魔搭的强大之处远不止于此,它不仅能驱动 Claude Code,同样可以作为 Kilo、Roo 等各类 AI 插件和工具的后端,快去探索它的更多可能性吧!

 


文章转载自alitrack,如果涉嫌侵权,请发送邮件至:contact@modb.pro进行举报,并提供相关证据,一经查实,墨天轮将立刻删除相关内容。

评论