昊梵体育网

这个新出的项目 free-claude-code 可以关注,用免费模型跑 Cla

这个新出的项目 free-claude-code 可以关注,用免费模型跑 Claude Code。free-claude-code在本地起一个代理服务器,把 Claude Code 的 API 请求拦截下来,转发给免费或低成本的替代模型,整个过程对 Claude Code 完全透明。

本质是一个本地 HTTP 代理。设置两个环境变量:
ANTHROPIC_BASE_URL,ANTHROPIC_AUTH_TOKEN

Claude Code 以为自己在打 Anthropic 的服务器,实际上请求到了你本机的代理,代理再转发给你配置的后端模型。

支持的 Provider
1) NVIDIA NIM:免费,40 req/min,推荐首选。支持 Kimi K2.5、Qwen 3.5、GLM5 等主流模型。
2) OpenRouter:有大量免费模型,包括 DeepSeek R1、GPT-OSS-120B、StepFun 等,模型选择最丰富。
3) DeepSeek:直连 DeepSeek API,价格极低,deepseek-chat 和 deepseek-reasoner 都支持。
4) 本地运行:LM Studio、llama点cpp、Ollama 三选一,完全离线,无速率限制,隐私最高。

几个值得关注的细节
1)按模型路由:Claude Code 里 Opus/Sonnet/Haiku 请求可以分别映射到不同 provider 和模型,混用完全没问题。比如 Opus 路由到 Kimi K2.5,Haiku 路由到本地 GLM Flash,省钱同时保性能。
2)请求优化:5 类「无意义请求」(网络探测、标题生成、路径提取等)直接在本地拦截返回,不消耗 API 配额。
3)Thinking Token 支持:自动解析 标签和 reasoning_content,转换成 Claude 原生 thinking blocks 格式,不丢中间推理过程。
4)Discord/Telegram Bot:可以把 Claude Code 接进消息平台,远程发任务、看进度、多会话并发。支持语音转文字输入(Whisper)。
5)VSCode 也支持
不只是终端,VSCode 的 Claude Code 插件同样可以接上。改一下 settings点json 加两行环境变量就行,插件完全无感。

地址:github点com/Alishahryar1/free-claude-code