Cursor 已死,Claude Code 永生?
一些报道
https://mp.weixin.qq.com/s/MQSQ-BNjKHc5x2K5R55-5g
https://mp.weixin.qq.com/s/yu7pAnE-yzPheKEYlhaTIQ
https://mp.weixin.qq.com/s/ngKivhu3nJ7xVL_86CC2sA
https://mp.weixin.qq.com/s/1LbqdtnnA8LCvHg3sGhNJA
TL;DR
ARR:Annual Recurring Revenue 年度经常性收入,根据订阅人数 x 订阅金额推算的出来的订阅制产品的年化收入数据。
Cursor 成长史:1年 10亿美金

当前 Claude Code ARR 2.5B USD vs Cursor 2B USD

Claude Code/Codex/Opencode 为代表的 TUI 工具的流行预示了编程范式的转移。感谢这类工具,CLI 终于又复兴了。但也略有遗憾的是这一轮复兴并没有给 vim 生态带来直接的变化,作为之前的重度用户还是觉得惋惜。
原先:从 cursor 刚推出的时候一路 smart tab 和程序员更加方便在编辑区进行编程(which means cursor 直接从 vscode hard fork 的做法非常有意义,因为可以复用 vscode 的插件和生态)
现在:不关注执行过程,程序也也不自己编写代码,由模型/工具端到端直接生成,程序员只负责最后对项目效果/代码进行验收。
而这个拉锯战中,cursor 作为中间层做了很多大模型没做的脏活;而大模型相关公司为了抢占市场份额,也做了很多突破,试图直接提供一站式的工具/模型去掉这样的中间层,于是我们就来到了当下的阶段。
虽然不乏一些 FUD,但 cursor 的市场策略就是瞄准企业市场,尤其存在大量合规和隐私限制的大公司,这些公司往往有更加严格和很长周期的软件准入评审流程,且业务签订流程也往往非常冗长,而对应的 cursor 也能获得长期(往往是年为单位)的订阅合同;同样 cursor 也在快速跟进和迭代,很多 CLI 上的功能也很快就被搬到了 cursor 上。所以这些质疑的声音听听就好,cursor 自然有它的问题,但社区的方向转变更多还是个人开发者的用脚投票,其实当下并不影响 cursor 的基本盘,看看热闹就好。
到底用哪个?
这个问题见仁见智,笔者建议:都试试就知道,小孩子才做选择
每个人有自己的习惯和偏好,可能存在某种度量是某个工具更加强大/先进/更好,但也一定存在另外维度上“更加适合”自己的工具,虽然对于大多数人这两个维度下的工具是同一个。
CC 有其局限性,比较适合完成整体功能逻辑之后提交 PR 并直接通过 git 工具进行 review,通过就合并,不通过就继续让 CC 改;一个直接的问题是如果自己想要对生成之后的结果做一些微调,那么可能配合编辑器(比如 cursor )就是很好的选择。如果不考虑成本,双持肯定是坠好的。
但从笔者的角度,一定要二选一当然是选 CC,真要微调也可以走 vscode (免费版)或者 vim,但是 CC 代表了最先进的工具、最强大的模型和工作流和最繁荣的生态,而工具本身也是 Anthropic 内部孵化出来的,代表了地球上最优秀的一批人的审核,也经过了这些人的打磨,当然,配合 A 社自家模型也是适配得最好的,没有理由不拥抱。
而根据实际使用下来的体验也可以明显地察觉到 CC 本身的先进性,对于需求的理解和实现的流畅度和 bug 率的表现都非常优秀。
Claude Code 怎么订阅
目前看起来最简单/省力/稳定的做法是通过 App Store 订阅。
参考👇的文章:
https://appstoreprice.com/zh/blog/pay-for-ai-subscriptions-via-app-store
通过拥有一个 App Store 的账号(以 Claude 为例 最低只要 73 人民币)就能订阅一个月 Claude Pro 的会员,不会因为支付渠道的原因被封号,也不用费劲找和开支持 Claude 订阅的银行卡,而获取 App Store 的礼品卡的成本低太多。
当然,也存在一些后期的维护成本问题,比如最好搭建代理链把自己的 IP 和其他人的 IP 隔离开来,以免连坐导致的封号或者 IP 万人骑导致的降智(OpenAI 会这么干,Claude 暂时未知)。但相对而言,作为一个没有外卡人在大陆的中国人而言,这是最方便/最省力的方案了。
给 Claude 插上翅膀
CC-Switch
https://github.com/farion1231/cc-switchk
开机必装,尤其是同时用好几家的模型 provider 的时候
cc-switch-cli
https://github.com/SaladDay/cc-switch-cli
推荐直接用 rust 安装: rust install --git https://github.com/SaladDay/cc-switch-cli
配合👇 shell 函数:
function claude_with() {
local name="$1"
if [ -z "$name" ]; then
echo "usage: claude_with <provider-name>"
return 1
fi
# 根据 name 找 id
local id
id=$(cc-switch provider list | awk -F'┆' -v n="$name" '$3 ~ n {gsub(/ /,"",$2); print $2}')
if [ -z "$id" ]; then
echo "provider not found: $name"
return 1
fi
# 当前 provider
local old
old=$(cc-switch provider list | awk -F'┆' '/✓/ {gsub(/ /,"",$2); print $2}')
cc-switch provider switch "$id" || return 1
claude
local exit_code=$?
# 恢复
if [ "$old" != "$id" ]; then
cc-switch provider switch "$old" >/dev/null
fi
return $exit_code
}然后 claude_with {cc-switch 中配置的 provider 的名称} 就可以快速切换 profile。
Coding Plan

笔者目前用过火山方舟和阿里云百炼,其他家等着后面排队一个一个体验。都是开的 Pro 也就是每个月 200 的套餐,首月都是 40,后面的续费不同家给的力度不一样,就不具体展开,但整体感受是:
Pro 一般是用不完的,因为模型吐 token 的速度并不快+渠道会有限流。
L 站有反馈说阿里云的算力给 qwen 倾斜导致 kimi-k2.5 和 minimax 都被降智了。
qwen3.5、kimi-k2.5、minimax-m2.5、glm-5 都还不错,能力大差不差,但整体来讲 glm-5 更快,但更容易偷懒(个人感受),比如适合拿来做工具调用,kimi-k2.5 比较适合干活,minimax-m2.5 和 qwen3.5 比较综合。
以及火山方舟基础运维能力+算力严重不足,使用的一个月中频繁触发限流和卡死,建议避雷。
一些拓展
token 🥷:GSD
据说非常适合拿来改屎山代码,但是 planning 太久了,以及安装不是很清真,没有深入玩。
https://github.com/gsd-build/get-shit-done#how-it-works
全能冠军:everything-claude-code
多智能体编排且有很多内置命令,非常适合复杂的任务
https://github.com/affaan-m/everything-claude-code
另一种编排逻辑:oh-my-claudecode
另外一个编排逻辑,也有很多内置命令,和 oh-my-opencode 对齐,如果从 opencode 切换过来的话非常适合使用这套方案。
https://github.com/Yeachan-Heo/oh-my-claudecode
pua 大师:pua
内置命令,用来在模型试图放弃的时候鞭策模型继续干活
https://github.com/tanweai/pua
Q&A
Q:程序员啥时候失业?
A:一个在 kimi 的朋友说估计明年年底差不多了,让我们拭目以待