套壳中国大模型撑起500亿美元估值?扒一扒 Cursor 的"套壳"疑云
1、
本周末,有一条最热闹的 AI 新闻,震动了太平洋两岸,连马斯克都关注了。
昨天,AI 编程工具 Cursor 推出了"自己的"模型 Composer 2。
![]()
上图是官网截图,现在点进去还写着"自有模型"。
自从2024年10月,Composer 1 发布以来,外界就一直怀疑,它是套壳的中国模型,因为行为很类似,但苦于找不到证据。
现在 Composer 2 来了,很多人就开始研究,它的背后到底是什么模型,真的是 Cursor 自家的吗?
Cursor 为了防止破解,做了很多限制,但是百密一疏。国外推友 @fynnso 发现,有一个地方在上一个版本是禁止的,但是这个版本却可以执行。
首先,你自己架设一台服务器,充当 AI 模型的调用接口,有没有模型无所谓,只要能收到客户端请求就行。
然后,你在本地的 Cursor 里面,设置使用的模型为 Composer 2,模型网址就是你刚架设的服务器。这样一来,Cursor 就会向你的服务器发出请求,从而可以看到它到底在请求什么模型。
真相就暴露了,它请求的模型 ID 居然是 kimi-k2p5-rl-0317-s515-fast(下图)。
![]()
2、
这位国外推友就把上面的截图,发布到网上。这下炸锅了,明眼人都看出来,这是铁证,Composer 2 实际上是套壳的 Kimi K2.5。
![]()
可笑的是,事情一爆发,Cursor 第一时间就把漏洞堵上,现在已经没法复现这个请求(下图)。
![]()
但是为时已晚,网上传遍了,就连马斯克也发推:"它就是 Kimi K2.5"。
![]()
这下好了,变成了公开的秘密,再也无法掩盖了。
3、
大家的关注点,很快就转移到 Cursor 是否侵权。因为 Kimi K2.5 虽然是开源模型,但是采用的是修改的 MIT 许可证(下图)。
![]()
许可证这样说:你可以任意使用这个模型,唯一的条件是如果你的商业产品月活用户超过1亿,或者月收入超过2000万美元,你必须在用户界面的醒目位置披露,你使用了 Kimi K2.5。
Cursor 最新披露的年化收入是20亿美元,相当于月收入1.67亿美元,显然满足上面的条件。但是,它隐藏了使用 K2.5 的事实。
就在大家认定 Cursor 侵权的时候,他们的一个负责人终于坐不住了,出来说话了。
![]()
他承认确实使用 Kimi K2.5,但是没有侵权,他们的许可证来自合作伙伴 Fireworks AI。
稍后,Kimi 官方也发推了。
![]()
Kimi 官方确认,Cursor 是从 Fireworks AI 得到了授权。后者是一家硅谷的华人 AI 公司,从事 AI 模型的微调和强化学习,它从 Kimi 得到授权对模型进行再训练,然后又转授权给了 Cursor。
4、
事情到这里就基本清楚了,Cursor 并没有违反 Kimi 的授权条款,因此不存在侵权。
既然如此,为什么它拼命掩盖这个事实,大大方方承认,提供 Kimi K2.5 的修改版模型,很难吗?
我猜测,原因跟 Cursor 不断膨胀的估值有关。
彭博社本月报道,Cursor 正在进行下一轮融资,估值达到500亿美元。
![]()
大家知道吗,它以前的估值是多少?
2023年10月,Cursor 成立时的估值是5000万美元;2024年8月的 A 轮融资,估值上升到4亿美元;12月的 B 轮融资,估值快速上升到26美元;2025年11月的最新一轮融资,估值已经到了293亿美元。
可以看到,每过几个月,估值就会翻倍。这种火箭式的上升速度,需要有业绩支持。但它本身只是一个 VS Code 的修改版,使用的都是开源技术。
为了支撑越来越高的估值,它有动机把自己从 AI 工具,包装成具有模型研发能力的大模型公司。
我认为,这才是它不愿意披露使用了 Kimi K2.5 的主要原因。
5、
纵观整个事件,Cursor 无疑是输家,Kimi 则是这次的赢家,免费得到一大波高价值的曝光。
Cursor 发布 Composer 2 时,披露了性能和成本比较。
Composer 2 的性能低于 GPT-5.4,但高于 Opus 4.6。
![]()
但是,它的生成速度比 GPT-5.4 和 Opus 4.6 都快,成本也是最低的。
![]()
既然 Composer 2 就是微调的 Kimi K2.5,那么直接使用 Kimi,也能得到同样的效果。
6、
以前,国外总是有人指责,中国公司窃取外国技术。但是,这个事件证明了,中国公司也有技术输出。那些国外的明星公司,背地也在偷偷摸摸使用中国技术。
联想到上周,Kimi 的创始人杨植麟收到黄仁勋的邀请,在 Nvidia GTC 大会演讲,是唯一的中国大模型公司代表。
![]()
他在台上宣讲,Kimi 团队刚刚发表的论文《注意力残差》(Attention Residuals)。
![]()
这种新技术据说可以显著提升大模型的推理能力。
我的想法是,大家要对国产大模型有信心,日常工作完全可以放心使用。国产大模型与国外旗舰模型的差距,正在不断缩小,而且价格实惠。
![]()
据杨植麟说,下一个要发布的 K3 模型性能提升巨大,即便没有强10倍,也比 K2.5 强得多,我们可以期待一下。
(完)
文档信息
- 版权声明:自由转载-非商用-非衍生-保持署名(创意共享3.0许可证)
- 发表日期: 2026年3月21日














