必博(中国)Bibo·官方网站 - 做高端体育品牌

硅谷500亿巨头翻车现场!Cursor被扒套壳Kimi中国开源上大分-必博官方网站
010-67952968
当前位置: 首页 > 行业洞察 > 行业新闻

硅谷500亿巨头翻车现场!Cursor被扒套壳Kimi中国开源上大分

2026-03-22 03:49:16 小编

  【新智元导读】大瓜惊爆AI圈:昨天Cursor新模型刚刚封神,24小时内却被扒是套壳Kimi?全网秒变吃瓜现场,马斯克、龙虾之父都来围观了。这一次,中国开源模型,真的上大分了!

  3月19日凌晨,估值即将冲击500亿美元的AI编程独角兽Cursor,高调发布了自家最新编程模型Composer 2。

  据说,它不仅超越了Claude 必博官方网站Opus 4.6,价格还直接腰斩,对于动辄被Claude天价模型烧穿钱包的开发者,这简直是重大利好啊。

  最令业内侧目的,就是这张「性能/价格比」坐标轴了:Composer 2直接横扫了Opus 4.6和GPT-5.4

  根据Cursor官方博客的说法,他们采用了不少关键技术,比如继续预训练、大规模强化学习、自主研发的自我摘要技术。

  一位名叫Fynn的开发者在调试Cursor的API时,截获了一段不该出现的模型ID:

  翻译过来就是,这个光环满满的Composer 2,底下跑的其实是Kimi K2.5的强化学习版本!

  看热闹不嫌事大的马斯克立马下场,在评论区留了一句话:「Yeah, its Kimi 2.5」。

  随后,Kimi的预训练负责人立即发推表示,我们测试了Composer 2的分词器,发现它跟Kimi的完全一致!

  他直接@了Cursor的联创Michael Truell,询问对方为何没有遵守他们的MIT License许可条款,也没有支付任何费用?

  要知道,这件事情的核心焦点就在于,根据Kimi K2.5的许可证要求,当衍生产品月收入超过2000万美元时,需在界面显著展示「Kimi K2.5」字样。

  而Cursor的年收入超过20亿美元,月收入约1.66亿,是触发署名义务门槛(2000万美元)的8倍以上。

  这一波,Cursor算是丢脸丢大发了。社区的各个大V,都下场围观、转发、热议起来。

  面对铺天盖地的质疑,Cursor联合创始人Aman Sanger不得不下场发声。

  第一,承认基座:我们评估了大量基座模型的困惑度,Kimi K2.5表现最强。

  第二,强调自研成分:在K2.5基础上做了继续预训练和4倍算力规模的高强度RL训练。

  Cursor的另一位核心成员Lee Robinson则在几个小时内连发四条推文,姿态一条比一条低。

  最初,他只承认是基于开源项目,并且甩出一组数据称,最终模型的算力消耗中,只有约1/4来自基座模型,剩下3/4全是Cursor自己的训练。

  然后架不住社区追问,直接摊牌:「既然大家非要我说出这个名字——KIMI K2.5!!没错,就是我们的起点。」

  最终,在两个小时之后,和另一位联创Aman Sanger在同一时间发了道歉。

  他表示,开始没在博客中提到Kimi基座模型,的确是犯错了,以后一定改正。

  最终,Kimi也非常大度地下场和解,表示非常自豪看到K2.5为Composer 2提供基座。

  2025年10月,Composer 1 发布时,全球多地用户就曾反馈:这个宣称自研的编程助手,竟然在思考过程中偶尔蹦出地道的中文。

  即便经几家媒体证实,Cursor及其竞争对手Windsurf确实都在底层套用了经过微调的中国开源大模型,但Cursor选择了冷处理——不解释、不回访,然后,在今年2月迅速迭代到1.5版本。

  但这一次,Composer 2的翻车更加彻底,可以说分明是利用别人研发投入进行的「利润套利」。

  目前,Cursor的估值是293亿美元,正寻求500亿美元融资;而提供底层能力的Kimi,上轮估值为43亿美元。

  话说回来,开源模型那么多,Cursor为什么选Kimi K2.5当基座?

  从官方公布的跑分来看,K2.5在Agent能力上也是压过了一众闭源巨头。

  架构上,K2.5是一个万亿参数的MoE模型,但每次推理只激活320亿参数,用不到总量3.2%的算力撑起前沿级的能力。256K上下文窗口,原生支持文本、图像、视频三模态输入。

  编码能力是K2.5最突出的长板,尤其是前端开发场景。比如,给它一张UI设计稿,K2.5能直接输出带交互动效和滚动触发效果的完整前端代码。

  同时,K2.5还引入了Agent Swarm机制,最多可以同时调度100个子Agent并行执行任务,完成多达1500次工具调用,任务执行速度提升4.5倍。

  对于Cursor这种需要处理大型代码库、长链任务的产品来说,K2.5几乎是量身定做的底座。

  数据和实力之外,这场Cursor风波还意外地给K2.5送上了一波全球级的信用背书。

  与此同时,全球最大的CDN服务商Cloudflare也在同一周宣布,将Kimi K2.5作为Workers AI平台上线的首个开源模型。

  在官博中,Cloudflare透露了一个惊人的数字:他们内部有一个基于K2.5的安全审计Agent,每天处理超过70亿智元(token)。

  如果是用中等水平的闭源模型,仅这一个场景、一个代码库,年成本就要240万美元。切换到K2.5之后,成本直降77%。

  一个中国开源模型,同时被估值500亿美元的硅谷编程工具选为基座、被全球CDN巨头用于生产环境。

  Composer 2 Fast不仅速度堪称地表最快,而且定价也只提到了1.5/7.5美元,同样比1.5版便宜57%。

  相比之下,一个Claude Code订阅月费200美元,背后的计算成本约为5000美元。

  这个定价策略的底气,来自Cursor在训练层面做的真正有技术含量的事——compaction-in-the-loop强化学习。

  Cursor的做法是把摘要过程直接嵌入RL训练循环:当生成过程触发智元(token)长度阈值时,模型自行暂停并压缩上下文,从5000+智元(token)浓缩到约1000 智元(token)。

  由于强化学习的奖励函数覆盖了整个链条(包括摘要步骤),模型学会了哪些细节必须保留、哪些可以丢弃。

  结果显示,上下文遗忘率比前代方法降低50%,模型可以处理需要数百步连续操作的项目级重构任务。也就是,智元(token)效率提升了5倍。

  此外,Composer 2还深度集成了Cursor的Agent工具链。包括语义代码搜索、文件和文件夹检索、文件读写、shell命令执行、浏览器控制和网页访问。

  这套工具栈意味着Composer 2不只是一个回答问题的模型,而是一个可以在IDE里「动手干活」的Agent。

  Composer 2的技术含量不假。但这件事真正的看点,不在Cursor做了多少RL,而在于——当它需要一个最强底座的时候,选了谁。

  有研究显示,日本十大主流AI模型中,六个的基座来自DeepSeek或Qwen系列,多数公司在宣传中淡化甚至隐去了与底层模型的关联。

  从东京到旧金山,从独立开发者到500亿美元估值的公司,大家打开引擎盖一看——里面跑的越来越多是中国造的发动机。

  而网友Yuchen Jin的预测,则看得更远:「开源模型实验室未来会靠授权分成赚钱——这才是真正的飞轮。」

  如果这个逻辑成立,Kimi免费放出K2.5,Cursor拿去做出20亿美元年收入的产品,最终Kimi通过许可条款和品牌曝光把价值收回来。

  这次事件最有趣的是,只需要一个开发者、一次API调试、一串没改掉的模型ID,就把一家AI编程巨头精心构建的「自研」叙事拆穿了。

联系专业的商务顾问,制定方案,专业设计,一对一咨询及其报价详情
服务热线服务热线 010-67952968
免费互联网咨询服务

联系我们 contact us
010-67952968