98: 李开复聊零一部分团队并入阿里:只有大厂能追逐超大模型晚点聊 LateTalk

98: 李开复聊零一部分团队并入阿里:只有大厂能追逐超大模型

54分钟 ·
播放数18527
·
评论数79

「不再追求 AGI,他第一个讲了出来」

上周初开始,市场陆续出现有关零一万物的新调整传闻,关键词包括:“放弃预训练,资金链紧张、被阿里收购……”传闻出现的第二天,我们在零一万物办公地,中关村鼎好大厦,采访了李开复。

他解释了实际发生的变化:零一万物已经和阿里云成立了 “产业大模型联合实验室”,零一万物的大部分训练和 AI Infra 团队会加入这个实验室,成为阿里的员工,侧重超大模型研发。零一自己接下来会聚焦做更快、更便宜、更小,更能支持普惠应用的模型,同时自己做应用。

在李开复的描述里,超大模型和更快、更便宜、更小的模型的关系类似于“老师和学生”,超大模型可以通过标注结果和生成更多合成数据的方式帮更小的模型提升性能。

去年 5 月,我们也访谈过一次李开复,当时的话题是从中国“最年长的 AI 大模型创业者”开始的,在 2023 年创立零一万物时,李开复已经 62 岁。

和他行业地位还有人生阶段相似的人,更多会选择支持一个公司,而李开复这次是自己当 CEO,自己跳入了这场大模型的混战。

关于零一的新选择,有人认为是理性、务实,有人认为是收缩乃至“认输”。不管如何,在最新传闻后,李开复快速对外说明事实和阐释想法的姿态,展现了 CEO 的责任。当公司出现调整,CEO 是需要对内对外说明情况的人。

这次我又问了去年问过李开复的一个问题:功成名就时再来创业,会不会有心理包袱?

他的回答还是和上次相似。1983 年,李开复开始在卡耐基梅隆读计算机博士,当时他在研究计划里写:“AI 是人类认识并理解自己的最后一里路,我希望加入到这个全新绽放、充满前景的未来科学领域。”

李开复认为,这是他等了四十多年终于等到的 AI 时代,如果自己没有试一把,才是一个终身遗憾。

我们访谈李开复的两篇文字报道,我也贴在了 shownotes 的“相关链接”部分,感兴趣的听友可以阅读。

时间线跳转:
回应零一万物调整:“不会停止预训练,但不再追逐超大模型”
02:30 零一与阿里云成立“产业大模型联合实验室”,零一部分团队并入阿里
06:01 当开源追上闭源,任何公司没必要执着于自己预训练,但这件事现在还没发生
08:16 零一没有寻求过被收购

Scaling Law 在变慢;商业化灵魂拷问时刻已经到来
12:08 2024 年 5 月后,零一就做出抉择:聚焦更快、更便宜的模型;想做最大、最棒、最牛的模型,代价非常高,绝对不是一个初创公司可以做的事。
16:57 超大模型的作用是当 Teacher Model,提升较小模型的能力,Anthropic 和 OpenAI 都有类似实践
22:22 大模型时代,从技术竞争到商业落地拷问,一切在加快
25:13 不打打不赢的仗,不做看不到回报的大量投入
27:25 3 种 ToB 订单可以做:帮客户赚钱的;与行业客户紧密合作的;方案可复制性高的

“2025 年零一会有数亿收入”,怎么来?
33:32 2024 年获得超 1 亿元人民币实际收入
35:03 2025 年会和适合大模型的行业公司建合资公司,结合行业数据、Know-how 和零一的技术

中国大模型创业公司会全军覆没吗?——“没有任何概率”
38:26 谈团队变化:有人禁不住诱惑,有人想追寻超大模型
40:19 中国大模型创业公司全军覆没有多大概率?——“没有任何概率”,因为 AI-first 的应用会足够颠覆
44:01 AI-first 应用的特性:自然语言交互;有通用推理、理解能力;无 AI 不成立
45:11 中国大模型创业公司在应用和落地上会有更多优势,这是互联网和移动互联网验证过的逻辑。

“等了 40 多年,不试才是遗憾”
47:28 不后悔自己当 CEO,一线创业
49:43 2025 年,应用会爆发,零一会在垂直细分行业找到有大价值的 PMF
51:19 工作是工业革命留下的魔咒,如果有了 Super Agent,我会花更多时间和爱的人在一起,这是 AI 取代不了的。
52:45 “每一位都是勇士,我们应该彼此鼓励”
53:32 2025 年的新年愿望

相关链接:
《晚点对话李开复丨他第一个讲了出来,不再追求 AGI》(25.01)
《对话李开复:这次大模型创业,我十年都不会变现》(24.05)

登场人物:
嘉宾:李开复,零一万物创始人兼 CEO。
主播:程曼祺,《晚点 LatePost》科技组负责人。小红书 @曼祺_火柴Q 即刻 @曼祺_火柴Q

剪辑:甜食

☆《晚点聊 LateTalk》建立「 播客听友群」啦!☆

欢迎关注科技、商业大公司动态和创业创新的小伙伴进群交流,第一时间收听新节目。
这里有更多互动,更多话题讨论。欢迎贡献选题 & 推荐嘉宾。

请先添加「晚点」小助手的微信号,备注:“晚点聊”,我们邀请您入群。

关注公众号《晚点 LatePost》和《晚点对话》,阅读更多商业、科技文章

展开Show Notes
置顶
上周《晚点》对李开复访谈的播客版,
文章发布后,就有不少读者留言想听音频版。
声音有更多情绪、信息,更加“多模态”。

关于零一的新选择,有人认为是理性、务实,有人认为是收缩乃至“认输”。不管如何,在最新传闻后,李开复快速对外说明事实和阐释想法的姿态,展现了 CEO 的责任。当公司出现调整,CEO 是需要对内对外说明情况的人。
TG米开酱奇罗:问得很棒 曼祺
培杰:过去就听说他不好采访,总是围绕他自己的主题来宣讲,感觉主持人追问他的问题没有被绕远。
4条回复
陈蝶衣
陈蝶衣
2025.1.14
开复老师的声音像一个二十多岁的年轻人
波子快跑:真的 完全没联想到
melody6906:声音温柔、儒雅,很难想象他生气什么样子。
3条回复
HD135786d
HD135786d
2025.1.14
已知:开复老师认知一年一变
那么:明年的这个时候开复老师会推翻今天的认知,所以今天讲的都是...
有风_eF5z:这两天是不是就推翻了
FYX_8PWD:哈哈哈哈哈
3条回复
Joes东
Joes东
2025.1.14
开复老师入局很深呀 这个阶段 都是问题 也几乎无解 这种咖位级别 灵魂拷问都来得这么快吗🤩
yoyoVCer
yoyoVCer
2025.1.14
感觉开复比较理性 不够“偏执”
艺圃:不够狠
希望能找这个联合实验室里阿里侧的人聊一下,可能会更有意思。
曼祺_MatchQ
:
看能不能在评论区抓到 😄
李叨叨
李叨叨
2025.1.15
听出了很多无奈
gpCigqFeC52
gpCigqFeC52
2025.1.15
看到评论区说阿里不适合做大模型,不敢苟同。qwen现在算是很强的模型了,闭源的qwen-turbo,qwen-plus,qwen-max,qwen-vl-plus和qwen-vl-max,还有开源的qwen2.5-72b,qwen2-vl-72b,qwen-qvq-72b,还有开源的tts和asr模型,比很多大模型公司都强。而且qwen-plus输入输出一百万token才2.8人民币,qwen-turbo上下文可以到1M,这不比大部分模型强啊。
离歌笑:质量怎么样,便宜是便宜
gpCigqFeC52:国内肯定是第一梯队了
一样嗯
一样嗯
2025.1.14
阿里做ai 没有任何优势

互联网 。移动互联网现在ai 几年前就看过李开复老师的ai那本书 感觉每次李开复老师都是起个早集都没成功
曼祺_MatchQ
:
阿里云有很好的基础,阿里通义开源系列和视频生成等多模态模型也做得不错呀
gpCigqFeC52:搞笑呢啊,qwen现在算是很强的模型了,闭源的qwen-turbo,qwen-plus,qwen-max,qwen-vl-plus和qwen-vl-max,还有开源的qwen2.5-72b,qwen2-vl-72b,qwen-qvq-72b,还有开源的tts和asr模型,比很多大模型公司都强
8条回复
blakeM
blakeM
2025.1.15
李开复思考的问题:
1. scaling low 变慢时,大模型公司要怎么办
2. 花了 1 千万美元训练个大模型,6 个月被开源模型超过了,怎么办?
3. 一年花了 1 个亿,但公司收入少 怎么办
4. 是否应该做 AGI
5. 超大模型只有大厂才能做,创业公司的方向是什么?

他的回答:
1. 不追求 AGI 和超大模型
2.让模型更快,更便宜,也相对智能(Yi lighting )
3. 做小模型,并且能帮用户赚钱(不止于省钱)
4. 和大厂合作,利用超大模型做 tech model 来优化较小模型
5. 深入国内 to B 市场,和行业内公司共创(而不是甲乙方关系),用 AI 帮行业公司赚钱/提效
6. 2025 是 AI 应用爆发的一年。2024 零一收入 1 亿元
主持人问得很犀利呀
小和平鸽
小和平鸽
2025.1.16
40:34 哈哈哈哈,給李想挖坑很容易。給李开复挖坑太难了。
明日绫波
明日绫波
2025.1.15
09:46 李开复说话很滴水不漏,谈话里像在打太极哈哈
30:42 3个灵魂拷问 1.scaling law 变慢了,2.只有大公司才可以做scaling,3.行业的灵魂拷问时间到了。开复老师讲的很务实。
deepseek
EchteLiebe
EchteLiebe
2025.1.15
51:09 飞书响了😹
简直太棒了
任雨山
任雨山
2025.1.15
虽然比较敬重李开复老师,但是访谈的时候有些嘴硬
HD571218w
HD571218w
2025.1.16
这集很赞,也蛮及时
绿瑁黑客
绿瑁黑客
2025.1.14
05:43 25年会有万亿十万亿级别的超大模型,超大模型训练出的迷你模型也会有巨大性能提升
SAuP:并不是参数越大越好,现在大家都往基于强化学习的TTT的scaling law上靠了。