专访李开复:中国DeepSeek Moment来临,与其抵抗不如拥抱 · 科技

Thomas 107 0

李开复最近很忙,不断飞往全国各地,频繁往返于深港之间。用他自己的话来讲:忙着见许多“超大客户”。

他在61岁这年创办的AI大模型公司零一万物,前不久经历了重大的战略调整,成为“AI六小虎”中第一家宣布放弃超大参数模型预训练的公司,在国内市场聚焦轻量化模型落地,全力转向ToB(企业端)应用。 

DeepSeek在春节期间的异军突起也加速了零一万物的转型。“当你花大笔的钱(去训超大模型)得不到回报,跟DeepSeek也不能对标,为什么要做这件事情?这是一个好的CEO必须要问自己的问题。”李开复说。

DeepSeek的爆火为大模型ToB业务完成了一次透彻的市场教育。他看到的机会是,企业主意识到或许是时候搭上大模型的快车,但对中途的路径和最终的目的地依然认知模糊。 

这样的背景之下,零一万物发布了一款名为“万智”企业大模型一站式平台,当前最大卖点是可提供企业级DeepSeek部署定制解决方案。它被寄予填补企业与DeepSeek之间技术沟壑的厚望。

不过,这些起来务实的做法,也在行业中引来了诸多质疑。有人批评李开复轻易就退出AGI竞争

对于这些议论,李开复以平静心态来看待。“我觉得它代表了大家看懂我们做的战略转型,我没有任何的意见。”他明确表态不会过度反思曾经的错误决策,但如果说大模型创业经历留下了什么教训,那就是应该更看清楚开源的必然性。

尽管暂时放弃了超大参数基础模型竞争,但李开复依然在密切观察这一领域。他预言,中国AI基座大模型最后大概率会剩三家DeepSeek,阿里通义,字节跳动。在中美大模型竞赛话题上,他认为以OpenAI o1和DeepSeek-R1为基准,中美差距或已收缩至3个月。 

另外,他试图重申对于AGI的定义,不是“什么事情都能够超过所有人类”,而是“在人做的90%事情上,比90%的人做得要好”。以这个定义为标准,我们距离AGI或许还有5年。

在人生最后一次创业项目上,虽然作出了务实抉择,但李开复坚称这并不等同于完全放弃了AGI。在他看来,打造一个商业底座,用利润拾起AGI的梦想,这也是可能的。

“我们最终还是想成为一个伟大的AI 2.0公司,让大模型赋能千行百业。”李开复说。

以下为界面新闻对李开复的专访实录,略作编辑:

“过度依赖闭源模型才会焦虑”

界面新闻:你最近好像一直在出差,就连“万智”发布会当天都在赶飞机,为什么? 

李开复:我最近行程安排得很满,也见了很多客户。比如说我今天去深圳就是见了一个超大客户,我在香港也见了很多超大客户。

相比重点参与招投标,不惜亏本拿单的To B打法,我们的差别就是会寻找那些头部的大B客户,利用过去积累的大模型研发中台能力来深度参与,以比较轻但是精准的方式进行企业定制,当然对这些客户的收费也会更高。有的公司一年上百个客户,每个拿小几百万,我们的诉求是少于10个主要客户,每个都是千万级别收入。

我们的发展会主要看几个指标第一是这个公司是否希望把AI放进核心业务里。第二是找那些数字化转型已经做得比较好的公司。第三是希望公司CEO开始积极拥抱AI,这样双方合作起来才会畅通,而且老板拍板的经费会更多。

还有一个特点是,我毕竟年纪、经验、人脉都摆在这里,中国的大老板们,我能敲开门的机会会比其他友商多得多。

界面新闻:所以你并不避讳要自己亲自跑出来给公司做销售?

李开复:我们要做To B的公司,公司最大的销售一定是CEO。这一点可能很多公司老板不愿意做,但这是我愿意做的。

我们公司今天销售团队还非常小,但不到10人的团队能拿到这么多订单,就是因为我们从灯塔客户开始打,然后我亲自出马。

我们的转换率可能很低,比如我见10个CEO朋友有1个单子就已经很好了。但是比起AI 1.0时代相互竞标、做一单赔一单的模式,目前我们的商业模式更健康,更可持续。一次不成没关系,合适的客户在那里,我们只是需要时间来挖掘。

界面新闻:发布“万智”这个产品对零一万物意味着什么?算是找到了阶段性的出路吗?

李开复:今天跟过去有一个很大的差别是,企业客户都觉醒了。因为DeepSeek的出现教育了市场中国经历了自己的“DeepSeek Moment”春节之前DeepSeek发布,接着就是春节期间的传播,老板们回来以后都说我们要对接DeepSeek,然后IT部门开始部署起来。

这些老板们可能首先想到的是,如果我能把公司所有财务信息、竞争对手信息输入进去,我能不能问它今年的战略方向?我的竞争对手最大的软肋在什么地方?以及公司在哪里有浪费?法律合同是否有违规风险?

这可能是第一步,DeepSeek也许可以做到一部分,但是如果他们只把模型接入,是不能完全解决这些问题的。很多企业CEO出于数据安全等原因,不希望直接接入API,所以需要本地部署。另外在应用实践方面,很多公司需要DeepResearch等功能,也需要用RAG技术链接企业数据库。此外还有企业希望能够在基座模型基础上开发应用、打造企业专属智能体。甚至还有很多企业需要基于DeepSeek模型进行模型微调。

这些都是万智的机会。我们是提供了一个“大模型研发中台”,让客户可以接入包括DeepSeek在内的大模型,然后基于自身需求进行微调和搭建应用。当然我们的Yi模型还在里面,也包括阿里千问的模型,但是大部分用户要的是DeepSeek。

界面新闻:外界现在有质疑声说,你们的产品会过于依赖其他开源模型。你们内部会有焦虑吗? 

李开复:DeepSeek事件对全世界最大的一个撼动就是,开源模型赢了。因为哪怕是强如Open AI的公司,花了70亿美元一年的经费,也只能比DeepSeek略好一点点,而且DeepSeek还是免费的。我觉得“花70亿美元比别人好一点点”是一个不可持续的商业模式。 

未来越来越多的基座模型会开源。我们也看到有一些大厂开始有更多开源的动作,美国可能也是这样。下一个阶段的竞争,就是谁能做最好的开源模型。

所以,我觉得全世界每一家大模型公司,现在只焦虑自己是否过度依赖闭源模型。特别是资金实力不够雄厚的公司,只依赖自己的能力,能不能打败全世界的开源社区这个才是焦虑。相反,现在主动拥抱DeepSeek等开源模型,尽早做出差异化的打法,可以每天睡得很好,很安稳。

投资人对转型非常认可

界面新闻:零一万物算是六小虎里比较早退出超大基座大模型竞争的公司,但现在确实还有很多公司还执着于预训练这件事情,你想对他们说什么?

李开复:每家公司有自己运营的一些考量跟规则,在不了解每家公司基本面状况下我不会认为我有资格去给他们做建议。我觉得在大模型领域能够胆敢去做的都是勇敢的创业者,所以我会祝他们好运。

但就我们自己来说,过去这半年,因为不做超大模型训练,我们的GPU成本大大下降,让我们有预算在商业部门里衡量决策,在什么地方增加人数、有多快能得到相应回报。就算要花钱,也可以在一段时间后看到这个钱产生回报,而不是预训练一个可能是血本无归的巨大模型。 

就算你只花3000万美元训练了一个世界前十的模型,它的生命周期可能就是3-6个月。那就代表你每个月要有500万到1000万美元净利润才能够打平,这个账明显是算不过来的。

所以短期来说,当你花大笔的钱得不到回报,跟DeepSeek也不能有效对标,为什么要做这件事情?这是一个负责任的CEO必须要问自己的问题。

界面新闻:现在让你重新定位零一万物,你会把它叫作一家什么公司?

李开复:最懂大模型的应用公司。

界面新闻:你们在转型之后再去融资有更被认可吗?

李开复:投资人对我们的转型是非常认可的。另外我之前在Bloomberg的采访上也说了,今天的VC对投资一个烧超大模型的创业型公司是零兴趣。 

当然如果把DeepSeek算在里面,它是例外。它现在要一个非常高的估值也是可以要得到的。 

界面新闻:能不能理解为零一万物目前所做的一切努力或者转型,最终还是为了给投资人交代,或者说要服务于上市?

李开复:当然不是,我们最终还是想成为一个伟大的软件公司。

比如说当年谁是做出最早的微型机操作系统的,是一个今天可能都没有听过的公司叫做Digital Research。微软是参考了别人的操作系统,优化创新后搭建成了一个真正的用户可用的操作系统。以及当年谁是做database(数据库)最牛的公司,肯定是IBM,但是谁做了一套可用的database,那就是Oracle、SAP还有SalesForce。

今天没有谁会去诟病Oracle、SAP、SalesForce没有做出最伟大的database research(数据库研究),也没有人会诟病微软当年没有最强的操作系统技术,也没有人会说当年的它们做事情就是为了上市。它们之所以能成功,就是因为它们的愿景是做一个伟大的软件公司。

我也不是说就永远放弃了AGI的梦想,但是有了一个商业底座,成为一个很成功的软件公司,利用利润再拾起AGI的梦想,这也是可能的。 

界面新闻:你有预见到零一万物会发展成现在这个样子吗?复盘过去会不会反思有哪些决策可以做得更好? 

李开复:我觉得当时应该更拥抱开源的。现在我们是从应用层拥抱开源,当时可能从模型层拥抱开源,会是一个更好的抉择。 

当时我们看到有三种公司,一种是坚决闭源的,第二种是开源次好的模型,闭源最好的模型,第三种是彻底开源的。我们属于第二种,当时如果做得更完整的话会更好。

界面新闻:更拥抱开源的核心意义是什么?

李开复:开源能够创造生态,然后得到认可。但是我也不会去过度揣测,如果当时做了,我们是不是有机会成为DeepSeek。但是如果说我学到了什么教训的话,那就是应该更看清楚开源的必然性。

中国基础大模型看DeepSeek,阿里,字节三家

界面新闻:你在年初看到DeepSeek全球爆火的直观感受是什么?会复盘为什么零一无法做到吗?因为你对技术的判断都没有错,从day 1开始就重视AI infra,很早认为低价的推理极其重要。

李开复:DeepSeek做了若干件很正确的事情,这是所有六小虎值得学习的地方。

一个是它很重视Infra,我们做得也不错,但还是差它一个身位,这个必须承认。第二是它在模型训练上做得很好,这个大家本质上倒没有差很多。第三它Reasoning(推理)做得很好。从理论基础上来说,DeepSeek-R1 Zero应该是最惊艳的一个科研贡献,它可能在历史上都会留名的。最后一点是他们执着选择开源。

前两个事情大家还可以辩论一下,你不错,我也不错,但R1-Zero是一骑绝尘的事情,我们是心服口服的。 

界面新闻:你对梁文锋这个人了解吗?你会怎么评价他? 

李开复:我跟他认识,但不算很熟,我只能看他的行为来点评。我觉得他是一个非常值得尊重的、很纯粹热爱技术的人。他完全有商业化的能力,但没有为商业化和资本弯腰,这表示他是一个有理想的人。他选择专注技术,有自信自己能把模型做得非常的强,愿意完全投入。我觉得这是让我很佩服的事情。

界面新闻:在你人生中最后一次创业里,遇到了梁文锋这样的对手,有什么感受? 

李开复:我是很惊喜,同时作为中国人也很自豪。

我之前有说过,如ChatGPT不对中国开放,而中国人没有自己的ChatGPT,会是新质生产力发展的一个阻碍。最后无论是谁做出来,只要做出来,大家最担心的障碍就解决了。

现在回头看,也只有梁文锋这样一个人,既有理想,又有做量化所积累的AI Infrastructure团队和技术背景,再加上他敢用年轻人的抉择,每一点都让我很佩服。

界面新闻:你认为中国AI大模型会收拢到三家,DeepSeek,阿里通义,字节跳动,是基于哪些维度判断的? 

李开复:万亿参数以上的超大模型还是需要有人来做的,只是这样的公司,它要有非常强的资金能力和工程能力,能不要过度的烧钱,然后融到足够的钱,我认为DeepSeek是可以做到的。 

另一个可能的路径是,要有非常大的商业体积和用户量,才能合理去烧超大模型,这是阿里和字节。它们有非常大的用户量,烧超大模型可能花了很多钱,但是分摊到每个用户身上就还好。所以淘宝和抖音的用户,如果都能从超大模型得到价值,并为公司产生价值,加起来就值得。

阿里还有一点值得注意的是它们的模型现在做得真的很好,不逊色于DeepSeek。字节跳动今天在学术界、模型界以及开源界,并没有像DeepSeek跟阿里那么知名。但是我们可以看到他们有资金也有决心,也能吸引到好的人才,有足够多的用户和场景让这个投入在商业上得到回报。字节应该很快就可以做出很好的模型。

界面新闻:能问一下腾讯为什么被摘出去了吗?

李开复:腾讯是一家应用驱动的科技公司,产品方面护城河很深,有世界级的竞争力,但在基座模型投入上跟前面三家比投入还不是一个量级。我觉得腾讯完全可以是第四个。但是今天从模型的角度,开源模型也好,模型表现也好,国内的第一梯队并没有见到腾讯的身影。它目前选择是微信、元宝等应用全面拥抱DeepSeek,与自研模型共存,这也是一个非常明智的做法。

中美大模型差距缩短至三个月:“他们急了,睡不着觉了”

界面新闻:在你了解中,美国有哪些公司真正意义上把DeepSeek直接视为了竞争对手?这种正视体现在什么地方?

李开复:应该每一家都会吧(笑)。最明显的肯定是Meta,因为它在开源的领先地位一下就被震撼了。而且我刚刚讲的那几个优势,Meta除了开源之外,没一个能够跟DeepSeek竞争的,所以这是一个Meta内部需要严重反思的问题。

OpenAI和Anthropic,你看他们的言行,就可以知道他们的态度他们开始跟美国政府抱怨,想要用政治手段来对待DeepSeek或者是对待中国,让中国更买不到芯片,让DeepSeek被美国制裁等等,而且很多话都没有事实根据。

所以让我们看到的就是,他们急了,他们睡不着觉了。

因为他们之前的价值主张已经坍塌了,就是你每年多给我几倍的资金和资源,我就会第一个烧出AGI,当我有了AGI,别人就做不出来了。这个价值主张多方面地坍塌了,第一,好像不是只有你做得出来;第二,人家好像不用这么多钱就做出来了;第三,人家还是开源免费的。 

当然这些公司的人还是很牛的,技术也是领先的,但是作为每年烧这么多钱的公司,整个公司能够运转就是因为能讲这个故事,让它能继续循环推动,但现在良性循环变成恶性循环。

界面新闻:美国对中国的算力限制真的能卡住中国大模型的技术发展吗?

李开复:未来这一两年中国已有的英伟达芯片还是足够的,再加上中国Infra的优势,DeepSeek训练一个同样效果的模型,可能只需要Open AI十分之一的成本,这也是一种Scaling Law。

而且不是说堆更多GPU,而是说更有效去做预训练,所以我觉得未来更有效的预训练加上已有的GPU,应该还是可以再做一定提升,不会说掉队。 

再往下走的话,那就要靠国产芯片了。再给个一两年时间,国产芯片应该也能够去使用,所以我觉得不会因为芯片问题有一个不可克服的挑战。

当然挑战还是有的,因为你用国产芯片就没有CUDA,那就得自己更辛苦,用更多的时间来去换取结果。但这个事也是可以做的,因为DeepSeek前面一次发表也可以看到它很多底层工作都是自己做的,所以中国工程师的勤奋刻苦可以克服这些问题。

把这几件事情对接起来,我是比较乐观的。

界面新闻:我们现在的确可以说中美之间AI大模型差距变小了对吗?它可能缩短到了几个月了?

李开复:最好的衡量方式就是美国做出一个崭新的技术,比如说o1,然后中国在多久之后做出了一个跟它同样好的技术,而且还有技术亮点。

之前我们落后了6个月也好,9个月也好,但现在你从o1的发布日到R1的发布日,可以算一下应该差不多三个月,而且这次不是一个复现或蒸馏,而是有自己的新技术亮点,值得尊重的论文的发表。

从这几点来说的话,至少三个月是一个合理的距离,而且在有些方面做得比Open AI还要好。

比如说在成本和Infra方面,你其实可以倒过来说,Open AI什么时候才能够在Infra方面赶上DeepSeek?我很确定三个月是做不到的。 

界面新闻:在GPT-4.5之后,我们对预训练阶段的Scaling Law还能期待些什么?

李开复:预训练出来的超大模型本身,即便它还有进步,速度也会放缓,而且它使用起来会很贵很慢。GPT-4.5比DeepSeek-V3要贵差不多500倍,绝大多数应用是用不起它的。

当然我觉得超大模型在一些巨大的科学或者金融决策上还是可以利用的,但这不是它主要的使用方法,因为太贵了。 

但新的曙光已经出现了。一方面,Scaling Law 正从预训练阶段转向推理阶段,也就是慢思考模式。目前看来,慢思考模式下,模型性能的成长速度非常快,而且还有很大的增长空间。 

另一方面,我认为超大模型的一个重要价值在于作为“教师模型”,可以去教小的模型,说直白点用它做蒸馏、标注,还有合成数据的产生。以后较小的模型可能训练的语料也是超大模型合成的,这样可以更有效去压缩它一定的训练量。

AI借助慢思考获得了反思的能力,能够自我迭代、自我进步,未来可能不再单单依靠人来发明新算法、发明模型架构,而是“AI教AI”,AI会进入到自我演进范式。 

大家会惊喜地发现,整体来看,模型性能的提升其实在加速,而不是在放缓。从GPT-2到 GPT-3、从GPT-3到GPT-4.5,每一次升级都花了大约两年的时间。而无论是从OpenAI o1到o3,还是从DeepSeek-R1到可能很快会发布的R2,模型迭代的速度缩短到了三个月左右。

界面新闻:那在现有情况下,你认为我们还要多久能实现AGI?

李开复:我觉得AGI的原始定义是模糊的,甚至可能是不可及的。“什么事情都能够超过所有人类”,首先难度就很高,衡量标准也不清晰,而且会给人一种恐怖感,就是那我们人类以后干什么?

AGI更合理的定义可能是,在人做的90%事情上,比90%的人做得要好。按照这个定义,我觉得5年之内肯定会实现的。

界面新闻:你会怎么看待Manus的走红?进入AI应用时代,做得更早还有先发优势吗?

李开复:我不谈某一个应用。但我可以说,我之前也说过2025年是应用爆发年,就是因为底层模型能力快速提升,而且推理成本快速下降,各行各业每个应用都会被重做一次,还有很多过去不可能的应用,让人眼睛一亮的应用,都会在2025年开始产生。

界面新闻:你们有在憋这种类似于可以刷屏产品的大招吗? 

李开复:我肯定是有兴趣,因为当我看到这种商机却什么都不做,那肯定是不行的。但你要说憋了什么大招,到底多大,我现在无可奉告。

界面新闻:最后一个问题,面对这么卷的行业,你个人坚持下去的动力是什么?

李开复:我觉得我这一生就在等AI时代的来临,它来临了,就是给我最大的动力。实际上做什么,我觉得每一个人就是量力而为,去自己能够产生最大价值的地方,我觉得是一个务实的做法。

  • 评论列表

留言评论